JP2013240004A - Image management device, image processing apparatus, image management system, image processing system, image management method, and image processing method - Google Patents

Image management device, image processing apparatus, image management system, image processing system, image management method, and image processing method Download PDF

Info

Publication number
JP2013240004A
JP2013240004A JP2012113296A JP2012113296A JP2013240004A JP 2013240004 A JP2013240004 A JP 2013240004A JP 2012113296 A JP2012113296 A JP 2012113296A JP 2012113296 A JP2012113296 A JP 2012113296A JP 2013240004 A JP2013240004 A JP 2013240004A
Authority
JP
Japan
Prior art keywords
image
terminal
base
site
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012113296A
Other languages
Japanese (ja)
Inventor
Tetsuo Yamashita
哲生 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012113296A priority Critical patent/JP2013240004A/en
Publication of JP2013240004A publication Critical patent/JP2013240004A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To include an image of an image area to be visually confirmed in an image received from a terminal of another site in respective terminals disposed at respective sites.SOLUTION: An MCU 70 adjusts pieces of image data from terminals at respective sites in an image adjustment (A) unit 72c according to an image adjustment signal received from a terminal 100a of a site A. The image adjustment (A) unit 72c cuts out image data from a terminal of a site to be indicated by ID data from image coordinates on the basis of ID data of a terminal of the site A selected by an operator and the image coordinates that is an adjustment parameter, and enlarges the cut-out image data. An image composition (A) unit 72d combines image data from a terminal of a site B or C and the image data obtained by subjecting the image data from the terminal of the site A to cut-out processing and enlargement processing to obtain one image data. An encoder (A) unit 72e encodes the composite image data, and the encoded data is transmitted from a transmission unit 72g to a terminal 100b or 100c.

Description

本発明は、複数の拠点に配置された端末の間で通信回線を介して画像を送受信するのに好適な画像管理装置、画像処理装置、画像管理システム、画像処理システム、画像管理方法および画像処理方法に関する。   The present invention relates to an image management apparatus, an image processing apparatus, an image management system, an image processing system, an image management method, and an image processing suitable for transmitting and receiving images between terminals arranged at a plurality of bases via a communication line. Regarding the method.

従来、多拠点テレビ会議システムにおいて、各拠点に配置されているテレビ会議端末は、接続されたカメラで撮影した画像を圧縮エンコードした上で送信している。送信された各拠点の画像はMCU(Multi point control Unit:多拠点接続装置)において一度デコードされた後、1つの画像に合成される。その後、再エンコードされ、各端末に送信することで、多拠点の画像をテレビ会議端末に送信する技術が知られている。   2. Description of the Related Art Conventionally, in a multi-site video conference system, video conference terminals arranged at each site transmit after compressing and encoding an image captured by a connected camera. The transmitted images of the respective bases are decoded once in an MCU (Multi point control unit) and then combined into one image. After that, a technique is known in which images at multiple locations are transmitted to a video conference terminal by being re-encoded and transmitted to each terminal.

まず、図13を参照して、従来の多拠点接続方式のテレビ会議システムにより画像配信を行う動作について説明する。
各拠点に配置されているテレビ会議端末(以下、端末)200は、処理装置210、撮影装置120、表示装置230を備えており、ネットワークNに接続されている。一方、多拠点接続装置(MCU、以下MCU)250もネットワークNに接続されている。各拠点において撮影装置220で撮影された画像データは、処理装置210において処理され、ネットワークNを介してMCU250に送信される。
MCU250において受信された画像データは、処理装置250aによって各拠点からの画像データと合成される。合成された画像データは各拠点の端末200に対して送信される。端末200で受信された画像データは処理装置210にて処理され、表示装置230に表示される。
これにより、各拠点の端末からの画像データを合成した画像データを各拠点の端末で目視確認することができる。
First, with reference to FIG. 13, an operation of distributing images by a conventional multi-site connection type video conference system will be described.
A video conference terminal (hereinafter referred to as “terminal”) 200 disposed at each site includes a processing device 210, a photographing device 120, and a display device 230, and is connected to a network N. On the other hand, a multi-site connection device (MCU, hereinafter MCU) 250 is also connected to the network N. Image data photographed by the photographing device 220 at each base is processed by the processing device 210 and transmitted to the MCU 250 via the network N.
The image data received by the MCU 250 is combined with image data from each base by the processing device 250a. The synthesized image data is transmitted to the terminal 200 at each base. Image data received by the terminal 200 is processed by the processing device 210 and displayed on the display device 230.
As a result, the image data obtained by combining the image data from the terminals at the respective bases can be visually confirmed at the terminals at the respective bases.

次に、図14(a)、(b)を参照して、従来の多拠点接続方式の端末300とMCU350における画像データの処理機能について説明する。なお、拠点300は、任意の拠点Aの端末を示すこととする。
図14(a)において、拠点Aに設置されている端末300の撮影装置321において、画像取得部321により取得された画像データは処理装置310に伝送され、処理装置310において、画像取得部321から受信した画像データがエンコーダ部311によりエンコードされる。エンコーダ部311によりエンコードされた画像データは、送信部312によりネットワークNを介してMCU350に送信される。
Next, with reference to FIGS. 14A and 14B, image data processing functions in the conventional multi-site connection type terminal 300 and MCU 350 will be described. The base 300 indicates a terminal at an arbitrary base A.
In FIG. 14A, the image data acquired by the image acquisition unit 321 in the imaging device 321 of the terminal 300 installed at the site A is transmitted to the processing device 310, and the processing device 310 receives the image data from the image acquisition unit 321. The received image data is encoded by the encoder unit 311. The image data encoded by the encoder unit 311 is transmitted to the MCU 350 via the network N by the transmission unit 312.

図14(b)において、端末300から送信された画像データは、ネットワークNを介してMCU350の処理装置360において、受信部361に受信される。拠点A以外の他の拠点(図14では他拠点として拠点B、Cがあるものとする)から送信された画像データも同様に受信部361に受信される。受信部361により受信された各拠点の端末からの画像データは、一旦、それぞれデコーダ部362によりデコードされる。デコーダ部362によりデコードされた画像データは、拠点Aの端末において専用に利用するために画像合成部363により画像合成され、1枚の画像データとなる。合成された画像データはエンコーダ部364によりエンコードされ、エンコードされた拠点A向けの画像データは、拠点Aの端末300に向かって送信部365から送信される。
拠点Aに設置されている端末300の処理装置310において、受信部313により受信された画像データは、デコーダ部314によりデコードされ、デコードされた画像データが画像表示部331に入力されて表示される。
これにより、従来の多拠点接続方式のテレビ会議システムでは、多拠点に設置されているそれぞれの端末からの画像データを拠点Aにおいて表示することができ、テレビ会議を行うことができる。
In FIG. 14B, the image data transmitted from the terminal 300 is received by the receiving unit 361 in the processing device 360 of the MCU 350 via the network N. Image data transmitted from a base other than the base A (assuming that the bases B and C are other bases in FIG. 14) is also received by the receiving unit 361. The image data received from the terminal at each base received by the receiving unit 361 is once decoded by the decoder unit 362. The image data decoded by the decoder unit 362 is combined by the image combining unit 363 to be used exclusively by the terminal at the base A, and becomes one piece of image data. The combined image data is encoded by the encoder unit 364, and the encoded image data for the site A is transmitted from the transmission unit 365 toward the terminal 300 at the site A.
In the processing device 310 of the terminal 300 installed at the site A, the image data received by the receiving unit 313 is decoded by the decoder unit 314, and the decoded image data is input to the image display unit 331 and displayed. .
Thus, in the conventional multi-site connection type video conference system, the image data from each terminal installed at the multi-site can be displayed at the site A, and a video conference can be performed.

図15を参照して、従来のルータ接続方式のテレビ会議システムの画像配信に関する動作について説明する。なお、図15に示す従来のルータ接続方式のテレビ会議システムは、図13に示す多拠点接続装置方式のテレビ会議システムと同様に、各拠点のテレビ会議端末(以下、端末という)400は処理装置410、撮影装置420、表示装置430を備え、ネットワークNに接続されており、一方、ルータ450もネットワークNに接続されている。
各拠点の端末において撮影装置420で撮影された画像データは、処理装置410において処理され、ネットワークNを介してルータ450に送信される。ルータ450において受信された画像データは、処理装置410によってルーティングされ、各拠点の端末400へと送信される。
つまり、図13に示すMCU250と違って、ルータ450は画像データそのものに対する処理を行わない。端末400で受信された画像データは処理装置410にて処理され、表示装置430に表示される。
With reference to FIG. 15, an operation related to image distribution of a conventional router connection type video conference system will be described. The conventional router connection type video conference system shown in FIG. 15 is similar to the multi-site connection type video conference system shown in FIG. 410, a photographing device 420, and a display device 430, which are connected to the network N, while the router 450 is also connected to the network N.
Image data photographed by the photographing device 420 at each terminal is processed by the processing device 410 and transmitted to the router 450 via the network N. The image data received by the router 450 is routed by the processing device 410 and transmitted to the terminal 400 at each site.
That is, unlike the MCU 250 shown in FIG. 13, the router 450 does not perform processing on the image data itself. Image data received by the terminal 400 is processed by the processing device 410 and displayed on the display device 430.

図16を参照して、図15に示す従来のルータ接続方式の端末400における画像データの処理機能による動作について説明する。
ここで、端末400は、任意の拠点Aの端末を示している。なお、ルータ450の処理装置460における処理は、送信されてきた画像データのルーティングのみであるため、処理機能ブロックの記述と説明を省略する。
拠点Aに配置されている端末400の撮影装置420において、画像取得部421により取得された画像データは、処理装置410において、エンコーダ部411のよりエンコードされる。一方、画像取得部421により取得された画像データは、画像合成部415にも伝送される。エンコーダ部411によりエンコードされた画像データは、送信部412からネットワークNを介してルータ450に向かって送信される。
Referring to FIG. 16, the operation by the image data processing function in terminal 400 of the conventional router connection method shown in FIG. 15 will be described.
Here, the terminal 400 is a terminal at an arbitrary base A. Note that the processing in the processing device 460 of the router 450 is only routing of the transmitted image data, and therefore description and description of the processing function block are omitted.
In the imaging device 420 of the terminal 400 arranged at the site A, the image data acquired by the image acquisition unit 421 is encoded by the encoder unit 411 in the processing device 410. On the other hand, the image data acquired by the image acquisition unit 421 is also transmitted to the image composition unit 415. The image data encoded by the encoder unit 411 is transmitted from the transmission unit 412 to the router 450 via the network N.

送信部412から送信された画像データは、ルータ450の処理装置460において、ルーティングされた後に、他の拠点に配置された端末に送信される。ルータ450の処理装置460においては、他の拠点に配置された端末から受信した画像データも同様にルーティングされ、拠点Aの端末400に送信される。
端末Aにおいて、他の拠点の端末から送信された画像データは、受信部413により受信され、それぞれのデコーダ部414によりデコードされる。デコーダ部414によりデコードされた画像データは、拠点Aで撮影された画像データとともに画像合成部415により画像合成され、1枚の画像データとして合成される。合成された画像データは、画像表示部431によりタッチパネルに表示される。
これにより、ルータ接続方式のテレビ会議システムでは、多拠点の画像を拠点Aにおいて表示することができ、テレビ会議を行うことができる。
The image data transmitted from the transmission unit 412 is routed by the processing device 460 of the router 450 and then transmitted to terminals located at other locations. In the processing device 460 of the router 450, the image data received from the terminals arranged at other bases are similarly routed and transmitted to the terminal 400 at the base A.
In the terminal A, image data transmitted from a terminal at another base is received by the receiving unit 413 and decoded by the respective decoder units 414. The image data decoded by the decoder unit 414 is combined by the image combining unit 415 together with the image data taken at the site A, and combined as a single piece of image data. The synthesized image data is displayed on the touch panel by the image display unit 431.
As a result, in the video conference system using the router connection method, images from multiple locations can be displayed at the location A, and a video conference can be performed.

特許文献1には、多拠点テレビ会議システムにおいて、各拠点の会議参加者が他方の画像に目視確認したい画像領域の画像が映るようにカメラを制御する目的で、テレビ会議用カメラの制御手法について開示されている。具体的には、どの拠点がカメラ制御権を保持しているかを表示しておき、保持中の制御権の委譲、短時間に且つ不要の操作を伴うこと無く、多拠点から受信する画像中に目視確認したい画像領域の画像が含まれるように多拠点のカメラを制御するという構成が開示されている。   Patent Document 1 discloses a video conferencing camera control method in a multi-site video conference system for the purpose of controlling a camera so that an image of an image area that a conference participant at each site wants to visually check is displayed on the other image. It is disclosed. Specifically, it displays which site holds the camera control right, and transfers the control right that is being held, in an image received from multiple bases in a short time and without unnecessary operations. A configuration has been disclosed in which cameras at multiple locations are controlled so that an image of an image region to be visually confirmed is included.

しかし、従来のMCU方式を用いた多拠点テレビ会議システムにあっては、ある拠点に配置した端末で撮影され画像データをMCUによりそのまま再エンコードするため、ある拠点に配置した端末で撮影された画像データは他の全ての拠点に配置した端末においても同じように表示されることになる。
このため、対象拠点の端末から受信した画像データ中に目視確認したい画像領域の画像データが含まれるようにする場合、対象拠点に設置されているカメラの位置や向きを変更する必要があり、またその変更によって、他の全ての拠点の端末に送信される対象拠点の端末の画像データが全て同じものになってしまうため、拠点毎に他拠点の端末からの画像に対して、目視確認したい画像領域を自由に変更できないといった問題があった。
また、特許文献1には、他拠点の端末から受信する画像に目視確認したい画像領域の画像が含まれるように、制御指示信号を多拠点の端末に向かって送信する点が開示されている。しかし、拠点毎に、対象拠点の端末からの画像中に目視確認したい画像領域の画像データが含まれるようにするために、対象拠点に配置されたカメラに対するパンチルトズーム指示に応じた画角移動を行わせる必要があるので、対象拠点の端末から受信した画像は他の全ての拠点に配置した端末においても同じ画像領域の画像が確認されるといった問題があった。
However, in a conventional multi-site video conference system using the MCU system, an image taken by a terminal placed at a certain base is captured in order to re-encode the image data as it is by a MCU placed at a certain base. The data will be displayed in the same manner on terminals arranged at all other locations.
For this reason, if the image data received from the terminal at the target site includes the image data of the image area to be visually confirmed, it is necessary to change the position and orientation of the camera installed at the target site. As a result of this change, all the image data of the terminals at the target base transmitted to the terminals at all other bases will be the same. There was a problem that the area could not be changed freely.
Patent Document 1 discloses that a control instruction signal is transmitted toward a multi-site terminal so that an image received from a terminal at another site includes an image of an image region to be visually confirmed. However, in order to include the image data of the image area to be visually confirmed in the image from the terminal of the target base for each base, the view angle movement corresponding to the pan / tilt / zoom instruction to the camera arranged at the target base is performed. Since it is necessary to perform this, there is a problem that images received from the terminals at the target site can be confirmed on the terminals arranged at all other sites.

そこで、各拠点に夫々配置した各端末において、他の拠点の端末から受信した画像中に目視確認したい画像領域の画像が含まれるようにすることが切望されている。
本発明は、上記に鑑みてなされたもので、その目的としては、各拠点に夫々配置した各端末において、他の拠点の端末から受信した画像中に目視確認したい画像領域の画像が含まれるようにすることが可能な画像管理装置、画像処理装置、画像管理システム、画像処理システム、画像管理方法および画像処理方法を提供することにある。
Therefore, it is anxious for each terminal arranged at each site to include an image of an image area that is desired to be visually confirmed in an image received from a terminal at another site.
The present invention has been made in view of the above, and as an object of the present invention, an image of an image region to be visually confirmed is included in an image received from a terminal at another base in each terminal arranged at each base. An image management apparatus, an image processing apparatus, an image management system, an image processing system, an image management method, and an image processing method are provided.

上記課題を解決するために、本発明の画像管理装置は、少なくとも第1拠点の端末、第2拠点の端末および第3拠点の端末間で画像を送受信する画像管理装置において、少なくとも前記第2拠点の端末および第3拠点の端末から画像を受信する受信手段と、前記第1拠点の端末から画像調整信号を受信する画像調整信号受信手段と、前記第1拠点の端末から受信した画像調整信号に基づいて、前記第2拠点の端末から受信した画像のうち一定の画像領域の大きさを変更する変更手段と、前記変更手段により変更された前記第2拠点の端末からの画像と、少なくとも前記第3拠点の端末から受信した画像とを合成する合成手段と、前記合成手段により合成された画像を前記第1拠点の端末に送信する送信手段と、を備えることを特徴とする。   In order to solve the above problems, an image management apparatus according to the present invention is an image management apparatus that transmits and receives images between at least a terminal at a first site, a terminal at a second site, and a terminal at a third site. Receiving means for receiving an image from the terminal at the third base and a terminal at the third base, an image adjusting signal receiving means for receiving an image adjustment signal from the terminal at the first base, and an image adjustment signal received from the terminal at the first base Based on the change means for changing the size of a certain image area of the image received from the terminal at the second base, the image from the terminal at the second base changed by the change means, and at least the first It is characterized by comprising combining means for combining images received from terminals at three sites, and transmitting means for transmitting the images combined by the combining means to the terminals at the first site.

本発明によれば、少なくとも第2および第3拠点の各端末から画像を受信しておき、第1拠点の端末から受信した画像調整信号に基づいて、第2拠点の端末から受信した画像のうち一定の画像領域の大きさを変更し、変更された第2拠点の端末からの画像と、少なくとも第3拠点の端末からの画像とを合成し、合成された画像を第1拠点の端末に送信することで、拠点に夫々配置した各端末において、他の拠点の端末から受信した画像中に目視確認したい画像領域の画像が含まれるようにすることができる。   According to the present invention, images are received from at least the terminals at the second and third sites, and based on the image adjustment signal received from the terminals at the first site, of the images received from the terminals at the second site. The size of a certain image area is changed, the changed image from the second base terminal and the image from at least the third base terminal are combined, and the combined image is transmitted to the first base terminal. By doing so, the image of the image area to be visually confirmed can be included in the image received from the terminal at the other base in each terminal arranged at the base.

多拠点接続方式の画像処理装置に適応可能なテレビ会議システム1の構成および動作について説明するための図である。It is a figure for demonstrating the structure and operation | movement of the video conference system 1 applicable to the image processing apparatus of a multi-site connection system. 図1に示すテレビ会議端末の外観図について説明するための図である。It is a figure for demonstrating the external view of the video conference terminal shown in FIG. 図1に示す撮像装置10と処理装置20のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the imaging device 10 and the processing apparatus 20 which are shown in FIG. 本発明の第1実施形態に係わる画像処理装置および画像管理装置に適用可能な多拠点接続方式のテレビ会議端末100とMCU70の処理ブロックの各機能について説明する図である。It is a figure explaining each function of the processing block of the video conference terminal 100 of the multi-site connection system applicable to the image processing apparatus and image management apparatus concerning 1st Embodiment of this invention, and MCU70. 本発明の第1実施形態に係わる画像管理装置により実現可能な、拠点毎に多拠点の端末からの画像の目視確認したい画像領域を選択できる機能について説明するための図である。It is a figure for demonstrating the function which can select the image area | region which can be implement | achieved by the image management apparatus concerning 1st Embodiment of this invention, and wants to visually confirm the image from the terminal of many bases for every base. 本発明の第1実施形態に係わる多拠点接続方式の端末100とMCU70との間の処理を示すシーケンス図である。It is a sequence diagram which shows the process between the terminal 100 and MCU70 of the multi-site connection system concerning 1st Embodiment of this invention. (a)、(b)は、本発明の第1実施形態に係わる画像管理装置により実現可能な、拠点毎に多拠点の端末からの画像の目視確認したい画像領域を選択できる機能について説明するための、画像調整前の表示画面と画像調整後の表示画面を示す図である。(A), (b) is for explaining a function that can be realized by the image management apparatus according to the first embodiment of the present invention, and can select an image area for which visual confirmation of images from terminals at multiple sites is desired for each site. It is a figure which shows the display screen before image adjustment, and the display screen after image adjustment. 本発明の第2実施形態に係わる画像処理装置に適用可能なルータ接続方式のテレビ会議端末150とルータ170の処理ブロックの各機能について説明するための図である。It is a figure for demonstrating each function of the processing block of the video conference terminal 150 and the router 170 of the router connection system applicable to the image processing apparatus concerning 2nd Embodiment of this invention. 本発明の第2実施形態に係わる画像処理装置による処理の一例として、端末150とルータ170との間の処理を示すシーケンス図である。It is a sequence diagram which shows the process between the terminal 150 and the router 170 as an example of the process by the image processing apparatus concerning 2nd Embodiment of this invention. 本発明の第2実施形態に係わる画像処理装置による画像パラメータ取得処理について説明するためのシーケンス図である。It is a sequence diagram for demonstrating the image parameter acquisition process by the image processing apparatus concerning 2nd Embodiment of this invention. 本発明の第2実施形態に係わる画像処理装置に設けられた調整パラメータ取得部157bにより取得される座標情報について説明するための図である。It is a figure for demonstrating the coordinate information acquired by the adjustment parameter acquisition part 157b provided in the image processing apparatus concerning 2nd Embodiment of this invention. (a)〜(d)は、本発明の第2実施形態に係わる画像処理装置に対して、画像領域を指定するための手順について説明するための図である。(A)-(d) is a figure for demonstrating the procedure for designating an image area | region with respect to the image processing apparatus concerning 2nd Embodiment of this invention. 従来の多拠点接続方式のテレビ会議システムの画像配信に関する構成を示す図である。It is a figure which shows the structure regarding the image delivery of the video conference system of the conventional multi-site connection system. (a)、(b)は、従来の多拠点接続方式の端末300とMCU350における画像データの処理機能ブロックの概要を示す図である。(A), (b) is a figure which shows the outline | summary of the processing function block of the image data in the terminal 300 and MCU350 of the conventional multisite connection system. 従来のルータ接続方式のテレビ会議システムの画像配信に関する構成を示す図である。It is a figure which shows the structure regarding the image delivery of the video conference system of the conventional router connection system. 図15に示す従来のルータ接続方式の端末400における画像データの処理機能ブロックの概要を示す図である。FIG. 16 is a diagram illustrating an outline of functional blocks for processing image data in the conventional router connection type terminal 400 shown in FIG. 15.

以下、本発明の実施形態について説明する。第1実施形態は、多拠点テレビ会議システムおける画像配信の処理に際し、各拠点の端末は広角レンズを有するカメラを用いて広範囲画像を撮影し、撮影した広範囲画像の全てをエンコードし、MCUに送信しておき、一方、各拠点の端末は他の拠点の端末から受信した画像に対してパンチルトズーム指示をMCUに向けて送信する。MCUはパンチルトズーム指示に応じて、MCU上でデコードした対象拠点の端末からの広範囲画像から映し出される画像領域を切り出す。MCUは切り出した画像を用いて、他の拠点の端末から画像と画像合成した後にエンコードする。これらの処理を各拠点に対応して行うことにより、MCUは拠点の端末毎の指示に従って切り出した画像を拠点の端末毎に送信することを特徴とする。
また、第1実施形態において用いたMCUに代わって、第2実施形態では、従来のルータを利用して上記と同様に、拠点の端末毎の指示に従って切り出した画像を拠点の端末毎に送信する処理を行うことを特徴とする。
Hereinafter, embodiments of the present invention will be described. In the first embodiment, at the time of image distribution processing in a multi-site video conference system, the terminal at each site captures a wide range image using a camera having a wide-angle lens, encodes all the captured wide range images, and transmits them to the MCU. On the other hand, the terminal at each base transmits a pan / tilt / zoom instruction to the MCU with respect to the image received from the terminal at the other base. In response to the pan / tilt / zoom instruction, the MCU cuts out an image area to be projected from a wide range image from the terminal at the target site decoded on the MCU. The MCU uses the clipped image to encode it after synthesizing it with an image from a terminal at another base. By performing these processes corresponding to each base, the MCU transmits an image cut out in accordance with an instruction for each terminal at the base to each terminal at the base.
In addition, instead of the MCU used in the first embodiment, in the second embodiment, a conventional router is used to transmit an image cut out according to an instruction for each terminal at the base, as described above. It is characterized by performing processing.

上記の本発明の特徴について、以下、図面を参考して詳細に説明する。
ここで、図1を参照して、多拠点接続方式の画像処理装置に適応可能なテレビ会議システム1の構成および動作について説明する。
図1に示すように、テレビ会議システム1は、複数の拠点A、B、Cに配置されているテレビ会議端末100a、100b、100cと、これらテレビ会議端末100が接続されるネットワークNで構成され、テレビ会議端末100は撮像装置10と処理装置20を備えている。テレビ会議端末100は、マイク5、スピーカ6、タッチパネル7なども備え、撮像装置10と同様に、処理装置20に接続されている。
例えば拠点Aに配置されたテレビ会議端末100aの撮像装置10で撮影された画像データは、当該テレビ会議端末100内の撮像装置10と処理装置20との連携した動作により、撮像装置10で撮像された画像データに補正処理を施し、当該テレビ会議端末100内のタッチパネル7に表示される。同時に、この補正処理された画像データは、ネットワークNに接続された他の拠点B、Cに配置されたテレビ会議端末100B、Cにも伝送されて、そのタッチパネル7にも表示される。
Hereinafter, the features of the present invention will be described in detail with reference to the drawings.
Here, with reference to FIG. 1, the configuration and operation of a video conference system 1 that can be applied to an image processing apparatus of a multi-site connection method will be described.
As shown in FIG. 1, the video conference system 1 includes video conference terminals 100a, 100b, and 100c arranged at a plurality of bases A, B, and C, and a network N to which these video conference terminals 100 are connected. The video conference terminal 100 includes an imaging device 10 and a processing device 20. The video conference terminal 100 also includes a microphone 5, a speaker 6, a touch panel 7, and the like, and is connected to the processing device 20 like the imaging device 10.
For example, image data captured by the imaging device 10 of the video conference terminal 100 a arranged at the site A is captured by the imaging device 10 by the operation of the imaging device 10 and the processing device 20 in the video conference terminal 100. The image data is corrected and displayed on the touch panel 7 in the video conference terminal 100. At the same time, the corrected image data is also transmitted to the video conference terminals 100B and 100C located at the other bases B and C connected to the network N and displayed on the touch panel 7.

例えば拠点Aに配置されたテレビ会議端末100aにおいて、操作者による接触に応じてタッチパネル7からズームイン/ズームアウト操作の指示が入力されると、当該テレビ会議端末100a内の処理装置20によりデジタルズーム処理が施されて、デジタルズーム処理された画像データが、当該テレビ会議端末100のタッチパネル7に表示される。同時に、デジタルズーム処理された画像データは、ネットワークNに接続された拠点B、Cに配置されているテレビ会議端末100b、100cにも伝送されて、そのタッチパネル7にも表示される。
この多拠点接続方式のテレビ会議システムによれば、ネットワークNに接続された複数のテレビ会議端末100において、デジタルズーム処理や歪曲収差補正処理が施された画像データをリアルタイムに表示することが可能になる。
For example, when an instruction for zoom-in / zoom-out operation is input from the touch panel 7 in response to contact by an operator at the video conference terminal 100a disposed at the site A, the digital zoom process is performed by the processing device 20 in the video conference terminal 100a. The image data subjected to the digital zoom processing is displayed on the touch panel 7 of the video conference terminal 100. At the same time, the image data that has been subjected to the digital zoom processing is also transmitted to the video conference terminals 100b and 100c arranged at the bases B and C connected to the network N and displayed on the touch panel 7.
According to this multi-site connection type video conference system, it is possible to display, in real time, image data subjected to digital zoom processing and distortion correction processing on a plurality of video conference terminals 100 connected to the network N. .

次に、図2を参照して、テレビ会議端末100の外観図について説明する。
以下、テレビ会議端末100の長手方向をX軸方向とし、水平面内でX軸方向と直交する方向をY軸方向(幅方向)とし、X軸方向およびY軸方向に直交する(鉛直方向、高さ方向)をZ軸方向として説明する。
テレビ会議端末100は、筐体40、アーム50、ハウジング52を備えている。このうち、筐体40の右側壁面41には、音収音用の孔42が設けられる。当該音収音用の孔42を通過した、外部からの音声が内部に設けられたマイク5(図1参照)により収音される。
また、上面部43には、電源スイッチ44と、音出力用の孔45が設けられる。操作者が、電源スイッチ44をON操作することで、テレビ会議端末100を起動することができる。また、スピーカ7(図1参照)から出力された音声は、音出力孔45を介して外部に出力される。さらに、テレビ会議端末100の筐体40の上面部43には、複数の操作ボタン(図示しない)が配置されている。
Next, an external view of the video conference terminal 100 will be described with reference to FIG.
Hereinafter, the longitudinal direction of the video conference terminal 100 is the X-axis direction, the direction orthogonal to the X-axis direction in the horizontal plane is the Y-axis direction (width direction), and the X-axis direction and the Y-axis direction are orthogonal (vertical direction, high direction). (Direction) is described as the Z-axis direction.
The video conference terminal 100 includes a housing 40, an arm 50, and a housing 52. Among these, a sound collecting hole 42 is provided in the right wall surface 41 of the housing 40. The sound from the outside that has passed through the sound collecting hole 42 is collected by the microphone 5 (see FIG. 1) provided inside.
The upper surface portion 43 is provided with a power switch 44 and a sound output hole 45. When the operator turns on the power switch 44, the video conference terminal 100 can be activated. The sound output from the speaker 7 (see FIG. 1) is output to the outside through the sound output hole 45. Furthermore, a plurality of operation buttons (not shown) are arranged on the upper surface portion 43 of the housing 40 of the video conference terminal 100.

また、筐体40の左側壁面47側には、アーム50及びカメラハウジング52を収容するための、凹形状の収容部46が形成されている。また、筐体40の左側壁面47には、接続口(図示せず)が設けられている。接続口は、映像出力ユニット24と、タッチパネル7とを接続するためのケーブル7aが接続されている。
また、アーム50は、トルクヒンジ51を介して、筐体40に取り付けられている。アーム50が、筐体40に対して、135度のチルト角ω1の範囲で、上下方向に回転可能に構成されている。図2では、チルト角ω1が90度の状態であることを示している。チルト角ω1を0度に設定することで、アーム50及びカメラハウジング52を収容部46に収容することができる。
Further, a concave housing portion 46 for housing the arm 50 and the camera housing 52 is formed on the left wall surface 47 side of the housing 40. Further, a connection port (not shown) is provided on the left wall surface 47 of the housing 40. The connection port is connected with a cable 7 a for connecting the video output unit 24 and the touch panel 7.
The arm 50 is attached to the housing 40 via a torque hinge 51. The arm 50 is configured to be vertically rotatable with respect to the housing 40 within a tilt angle ω1 of 135 degrees. FIG. 2 shows that the tilt angle ω1 is 90 degrees. By setting the tilt angle ω1 to 0 degrees, the arm 50 and the camera housing 52 can be accommodated in the accommodating portion 46.

カメラハウジング52には、内蔵型の撮像装置10が収容されている。当該撮像装置10により、人物(例えば、テレビ会議の参加者)や、用紙に記載された文字や記号、部屋などを撮影することができる。また、カメラハウジング52には、トルクヒンジ53が形成されている。カメラハウジング52は、トルクヒンジ53を介してアーム50に取り付けられている。カメラハウジング52がアーム50に対して、図2に示す状態を0度として、±180度のパン角ω2の範囲で、かつ、±45度のチルト角ω3の範囲で、上下左右方向に回転可能に構成されている。
また、テレビ会議端末100は、図2に記載されたものではなく、他の構成であっても良い。例えば、PC(Personal Computer)に、スピーカ6やマイク5を外部接続したものを用いてもよい。また、本テレビ会議端末100をスマートフォンなどの携帯型端末に適用しても良い。
The camera housing 52 accommodates the built-in imaging device 10. The imaging device 10 can photograph a person (for example, a participant in a video conference), characters and symbols written on a sheet, a room, and the like. A torque hinge 53 is formed in the camera housing 52. The camera housing 52 is attached to the arm 50 via a torque hinge 53. The camera housing 52 can be rotated vertically and horizontally with respect to the arm 50 within a range of a pan angle ω2 of ± 180 degrees and a tilt angle ω3 of ± 45 degrees with the state shown in FIG. It is configured.
In addition, the video conference terminal 100 is not described in FIG. 2 and may have another configuration. For example, a PC (Personal Computer) with a speaker 6 and a microphone 5 externally connected may be used. Moreover, you may apply this video conference terminal 100 to portable terminals, such as a smart phone.

次に、図3を参照して、図1に示す撮像装置10と処理装置20のハードウェア構成について説明する。
テレビ会議端末100は少なくとも撮像装置10と処理装置20で構成される。処理装置20は、例えばパーソナルコンピュータである。撮像装置10と処理装置20の間は有線(USB等)あるいは無線で接続される。
撮像装置10は、被写体像が入射する超広角レンズ11と、超広角レンズ11によって結像された撮像対象の光学像をアナログ電気信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの画像センサ12と、アナログ電気信号をA/D変換してデジタル信号であるフレーム画像に対して各種画像処理を行うISP(Image Signal Processor)などから構成される画像処理ユニット13と、フレーム画像や各種画像処理済みフレーム画像、その他のデータ及び制御信号などを処理装置20との間で送受信するI/Fユニット14などを備えて構成される。
Next, the hardware configuration of the imaging device 10 and the processing device 20 illustrated in FIG. 1 will be described with reference to FIG.
The video conference terminal 100 includes at least the imaging device 10 and the processing device 20. The processing device 20 is, for example, a personal computer. The imaging device 10 and the processing device 20 are connected by wire (such as USB) or wirelessly.
The imaging apparatus 10 includes a super-wide-angle lens 11 on which a subject image is incident, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) that converts an optical image to be imaged formed by the super-wide-angle lens 11 into an analog electrical signal. ), An image processing unit 13 including an image signal processor (ISP) that performs various image processing on a frame image that is a digital signal by A / D converting an analog electric signal, and a frame It is configured to include an I / F unit 14 that transmits and receives images, various image processed frame images, and other data and control signals to and from the processing device 20.

処理装置20は、撮像装置10との間でフレーム画像や各種画像処理済みフレーム画像、その他のデータ及び制御信号などを送受信するI/Fユニット21と、種々の処理を実行するCPU(Central Processing Unit)22、CPU22の処理に必要な各種ソフトウエアやデータ、フレーム画像や各種画像処理済みフレーム画像や変換済みフレーム画像などを格納するメモリ23と、処理装置20に接続したタッチパネル7などに映像信号を伝送する映像出力ユニット24と、画像データや制御データなどをネットワークNに接続された相手側の他の拠点に配置されているテレビ会議端末に送信する通信ユニット25と、装置全体を制御する制御ユニット26と、各ユニットを接続するバス27と、操作者によるタッチ指示を受け付けるタッチパネル7から指示情報や座標情報を入力する操作ユニット28などで構成される。メモリ23は、揮発性メモリであるRAM、ROM、HDD(Hard Disk Drive)などの総称である。
処理装置20のCPU22は、撮像装置10によって撮像された画像内から人物を検出し、人物が写っている画像の範囲に基づいて歪曲収差補正処理の要否を判断し、画像処理ユニット13に対して歪曲収差補正のオン/オフ指示を行う。画像処理ユニット13は、処理装置20からの歪曲収差補正処理のオン/オフ指示に基づいて歪曲収差補正処理を行う機能を有する。
The processing device 20 includes an I / F unit 21 that transmits and receives a frame image, various image processed frame images, other data, control signals, and the like to and from the imaging device 10, and a CPU (Central Processing Unit) that executes various processes. ) 22, a video signal is sent to the memory 23 for storing various software and data necessary for the processing of the CPU 22, frame images, various image processed frame images, converted frame images, etc., and the touch panel 7 connected to the processing device 20. A video output unit 24 for transmission, a communication unit 25 for transmitting image data, control data, and the like to a video conference terminal located at another base of the other party connected to the network N, and a control unit for controlling the entire apparatus 26, a bus 27 for connecting each unit, and a touch panel for receiving a touch instruction from an operator. 7 consists of an operation unit 28 for inputting instruction information and coordinate information from. The memory 23 is a generic name for RAM, ROM, HDD (Hard Disk Drive), etc., which are volatile memories.
The CPU 22 of the processing device 20 detects a person from the image picked up by the image pickup device 10, determines whether or not distortion aberration correction processing is necessary based on the range of the image in which the person is shown, and instructs the image processing unit 13. To turn on / off distortion correction. The image processing unit 13 has a function of performing distortion correction processing based on an on / off instruction for distortion correction processing from the processing device 20.

上述した図1乃至図3に示すテレビ会議装置端末100は、本発明の第1および第2実施形態に係わる画像処理装置の各種機能を搭載可能であり、さらに詳細な構成の具体例を以下に説明する。
<第1実施形態>
図4を参照して、本発明の第1実施形態に係わる画像処理装置および画像管理装置に適用可能な多拠点接続方式のテレビ会議端末100とMCU70の処理ブロックの各機能について説明する。
なお、拠点Aに配置されているテレビ会議端末(以下、端末という)100aと、拠点Bおよび拠点Cに配置されている端末100b、100cとは同様の構成であり、その説明を省略する。また、拠点A、Bおよび拠点Cに配置されている各端末100がネットワークNを介してMCU70に共通に接続されていることとして説明する。
The video conference apparatus terminal 100 shown in FIGS. 1 to 3 described above can be equipped with various functions of the image processing apparatus according to the first and second embodiments of the present invention. explain.
<First Embodiment>
With reference to FIG. 4, functions of processing blocks of the multi-site connection type video conference terminal 100 and MCU 70 applicable to the image processing apparatus and the image management apparatus according to the first embodiment of the present invention will be described.
The video conference terminal (hereinafter referred to as a terminal) 100a disposed at the site A and the terminals 100b and 100c disposed at the site B and the site C have the same configuration, and description thereof is omitted. In addition, it is assumed that the terminals 100 arranged at the bases A and B and the base C are commonly connected to the MCU 70 via the network N.

拠点Aに配置されている端末100aは、撮影装置10と、処理装置20と、表示装置30と、画像調整I/F部40とを備えている。
撮影装置10は、例えば、デジタルカメラ、ビデオカメラを有し、カメラで撮像対象を撮影して画像信号を取得し、画像信号をA/D変換して得た画像データをエンコーダ部20aに出力する画像取得部10aを備えている。
処理装置20は、画像取得部10aから入力される画像データを符号化(エンコード)して圧縮された例えばMPEG方式やJPEG方式の画像データを生成するエンコーダ部20aと、符号化(エンコード)して圧縮された画像データを送信する送信部20bと、ネットワークNを介して符号化された画像データを受信する受信部20cと、符号化された画像データを復号(デコード)して元の画像データを生成するデコーダ部20dと、調整パラメータ取得部40bで取得された調整パラメータと、現在使用している画像の座標情報に基づいて、画像調整信号を生成する画像調整信号生成部20eとを備えている。
The terminal 100 a arranged at the site A includes the imaging device 10, the processing device 20, the display device 30, and the image adjustment I / F unit 40.
The imaging apparatus 10 includes, for example, a digital camera and a video camera, captures an imaging target with the camera, acquires an image signal, and outputs image data obtained by A / D converting the image signal to the encoder unit 20a. An image acquisition unit 10a is provided.
The processing device 20 encodes (encodes) an encoder unit 20a that generates, for example, MPEG or JPEG image data that is compressed by encoding (encoding) the image data input from the image acquisition unit 10a. A transmitting unit 20b that transmits the compressed image data, a receiving unit 20c that receives the encoded image data via the network N, and the original image data by decoding (decoding) the encoded image data. A decoder unit 20d for generation, an adjustment parameter acquired by the adjustment parameter acquisition unit 40b, and an image adjustment signal generation unit 20e for generating an image adjustment signal based on the coordinate information of the currently used image are provided. .

表示装置30は、画像データを表示するための画像表示部30aとしてタッチパネル7を備えている。
画像調整I/F部40は、他の拠点に配置されている端末から受信した画像データに対応するIDデータを表示するID表示部40aと、タッチパネル7の表示画面に対して操作者のタッチ操作により選択された結果から、画像調整の対象となった拠点の端末からの画像データのIDデータと表示したい画像領域の座標情報とからなる調整パラメータを取得する調整パラメータ取得部40bとを備えている。なお、ID表示部40aにはタッチパネル7を用いている。
MCU70は、画像管理装置を構成し、メモリ部から読み出したプログラムに従って処理を実行するCPU、メモリ部(ROM、RAM、HDD)を有し、種々の画像処理を行う処理装置72を備えている。処理装置72は、ネットワークNを介して符号化された画像データを受信する受信部72a、符号化された画像データを復号(デコード)して元の画像データを生成するデコーダ部72b1、72b2、72b3、画像処理(A)部73a、画像処理(B)部73b、画像処理(C)部73c、送信部72gを備えている。
The display device 30 includes a touch panel 7 as an image display unit 30a for displaying image data.
The image adjustment I / F unit 40 includes an ID display unit 40 a that displays ID data corresponding to image data received from a terminal placed at another base, and an operator touch operation on the display screen of the touch panel 7. An adjustment parameter acquisition unit 40b that acquires an adjustment parameter composed of the ID data of the image data from the terminal at the base that is the object of image adjustment and the coordinate information of the image area to be displayed. . In addition, the touch panel 7 is used for the ID display part 40a.
The MCU 70 constitutes an image management apparatus, includes a CPU that executes processing according to a program read from the memory unit, and a memory unit (ROM, RAM, HDD), and includes a processing device 72 that performs various image processing. The processing device 72 includes a receiving unit 72a that receives encoded image data via the network N, and decoder units 72b1, 72b2, and 72b3 that decode the encoded image data and generate original image data. , An image processing (A) unit 73a, an image processing (B) unit 73b, an image processing (C) unit 73c, and a transmission unit 72g.

画像処理(A)部73aは、受信部72aが受信した画像調整信号に基づいて、拠点Aの端末から受信した画像を拡大縮小して左側位置に配置し、拠点B又はCの端末から受信した画像を右側位置に配置するように合成する。画像処理(B)部73bは、受信部72aが受信した画像調整信号に基づいて、拠点Bの端末から受信した画像を拡大縮小して左側位置に配置し、拠点A又はCの端末から受信した画像を右側位置に配置するように合成する。画像処理(C)部73aは、受信部72aが受信した画像調整信号に基づいて、拠点Cの端末から受信した画像を拡大縮小して左側位置に配置し、拠点A又はBの端末から受信した画像を右側位置に配置するように合成する。
画像処理(A)部73aは、操作者の選択した拠点に対応するIDデータと調整パラメータである画像座標とに基づいて、IDデータで示される対象となる拠点の画像データを画像座標により切り出し、切り出した画像データを拡大する画像調整(A)部72c、拠点Aの端末向けの画像データを専用に合成しており、拠点Bおよび拠点Cの各端末からの画像データを合成して1枚の画像データを得る画像合成(A)部72d、1枚になった画像データをエンコードするエンコーダ(A)部72e、画像データに対応するIDデータと現在使用している座標情報を生成するID・座標情報生成(A)部72fを備えている。なお、画像処理(B)部73bおよび画像処理(C)部73cの構成は、画像処理(A)部73aと同様のブロック構成を有しているので、その説明を省略する。
Based on the image adjustment signal received by the receiving unit 72a, the image processing (A) unit 73a enlarges / reduces the image received from the terminal at the site A and arranges the image at the left position, and receives it from the terminal at the site B or C. The image is composed so as to be arranged at the right position. Based on the image adjustment signal received by the receiving unit 72a, the image processing (B) unit 73b scales and arranges the image received from the terminal at the base B at the left position, and receives it from the terminal at the base A or C. The image is composed so as to be arranged at the right position. Based on the image adjustment signal received by the receiving unit 72a, the image processing (C) unit 73a enlarges / reduces the image received from the terminal at the base C and arranges it at the left side position, and receives it from the terminal at the base A or B. The image is composed so as to be arranged at the right position.
The image processing (A) unit 73a cuts out the image data of the target site indicated by the ID data based on the image coordinates based on the ID data corresponding to the site selected by the operator and the image coordinates that are the adjustment parameters. The image adjustment (A) unit 72c for enlarging the cut-out image data and the image data for the terminal at the base A are combined exclusively, and the image data from the terminals at the base B and the base C are combined to form one sheet. An image composition (A) unit 72d for obtaining image data, an encoder (A) unit 72e for encoding one piece of image data, ID data corresponding to the image data, and ID / coordinates for generating currently used coordinate information An information generation (A) unit 72f is provided. Note that the configurations of the image processing (B) unit 73b and the image processing (C) unit 73c have the same block configuration as the image processing (A) unit 73a, and thus description thereof is omitted.

次に、図4を参照して、多拠点接続装置方式の端末100とMCU70の動作について説明する。
下記の説明に先立って、MCU70が拠点Aの操作者の指示に応じて、拠点Bまたは拠点Cに配置されている端末100bまたは100cから受信した画像データの大きさを変更することを想定する。なお、本実施形態では、3拠点A、B、Cに端末100a、100b、100cを配置することを想定しているが、2拠点でもよいし、3拠点以上であってもよい。
拠点Aに配置されている端末100の撮影装置10では、例えば、デジタルカメラ、ビデオカメラを用いて画像取得部10aが画像データを取得する。画像取得部10aで取得された画像データは、処理装置20のエンコーダ部20aでエンコードされる。送信部20bは、画像エンコード部20aでエンコードされた画像データに対して、送信元として当該拠点の端末を示すIDデータをヘッダ部に付加し、IDデータが付加されたヘッダ部を有する画像データをネットワークNを介してMCU70に送信する。ここで、拠点の端末を示すIDデータとして、例えば、「A」、「B」および「C」を用いてもよい。
端末100に設けられた送信部20bから送信された画像データは、MCU70に設けられた処理装置72の受信部72aで受信される。他の拠点B、Cの端末から送信される画像データも、同様に受信部72aで受信される。受信部72aで受信された各拠点の端末から受信した画像データは、一旦、それぞれのデコーダ部72b1、72b2、72b3でデコードされる。
Next, with reference to FIG. 4, the operations of the terminal 100 and MCU 70 of the multi-site connection apparatus method will be described.
Prior to the following description, it is assumed that the MCU 70 changes the size of the image data received from the terminal 100b or 100c arranged at the base B or the base C in accordance with an instruction from the operator at the base A. In the present embodiment, it is assumed that the terminals 100a, 100b, and 100c are arranged at the three bases A, B, and C. However, two bases may be provided, or three or more bases may be provided.
In the photographing device 10 of the terminal 100 arranged at the site A, the image acquisition unit 10a acquires image data using, for example, a digital camera or a video camera. The image data acquired by the image acquisition unit 10 a is encoded by the encoder unit 20 a of the processing device 20. The transmission unit 20b adds ID data indicating the terminal of the base as a transmission source to the header portion of the image data encoded by the image encoding unit 20a, and the image data having the header portion to which the ID data is added. The data is transmitted to the MCU 70 via the network N. Here, for example, “A”, “B”, and “C” may be used as the ID data indicating the terminal at the base.
Image data transmitted from the transmission unit 20 b provided in the terminal 100 is received by the reception unit 72 a of the processing device 72 provided in the MCU 70. Similarly, the image data transmitted from the terminals of the other bases B and C are also received by the receiving unit 72a. The image data received from the terminal at each base received by the receiving unit 72a is once decoded by the respective decoder units 72b1, 72b2, and 72b3.

一方、受信部72aで受信された画像データは、ID・座標情報生成部72fに入力される。ID・座標情報生成部72fは、入力された画像データから、拠点の端末を特定するために使用する例えば拠点名称や文字列などで示されるIDデータを生成する。拠点の端末を示すIDデータとして、例えば、「A」、「B」および「C」を用いてもよい。   On the other hand, the image data received by the receiving unit 72a is input to the ID / coordinate information generating unit 72f. The ID / coordinate information generation unit 72f generates, from the input image data, ID data indicated by, for example, a site name or a character string that is used to identify the terminal at the site. For example, “A”, “B”, and “C” may be used as the ID data indicating the terminal at the base.

ここで、ID・座標情報生成部72fは、各拠点(A、B、C)の各端末から受信した画像データと対応付けられた画像調整信号として、IDデータと、現在使用している画像の座標情報が生成され、画像調整(A)部72cでの画像調整に用いる。
なお、ここでの画像調整とは、拠点Aに配置されている端末100aから受信した画像調整信号に付加されている指示に応じて、そして、拠点Bまたは拠点Cの画像データの一定の画像領域の大きさを変更する調整である。例えば、画像データに人とホワイトボードが含まれる場合を想定する。例えば、拠点Aの操作者が拠点Bのホワイトボードに書かれている内容に注目したとする。
この場合、拠点Aの操作者がホワイトボード上の注目点をズームするためのズーム指示を送信し、ホワイトボード上の文字が書かれている画像領域を拡大することできる。この拠点Aからのズーム指示は、後述する端末100に設けられた調整パラメータ取得部40bで取得した座標パラメータや、画像調整信号生成部20eで生成した画像調整信号に付加されている。
Here, the ID / coordinate information generation unit 72f uses the ID data and the currently used image as an image adjustment signal associated with the image data received from each terminal at each base (A, B, C). Coordinate information is generated and used for image adjustment in the image adjustment (A) unit 72c.
Here, the image adjustment is based on an instruction added to the image adjustment signal received from the terminal 100a arranged at the site A, and a certain image area of the image data at the site B or the site C. It is an adjustment to change the size of. For example, assume that the image data includes a person and a whiteboard. For example, it is assumed that the operator at the base A pays attention to the contents written on the white board at the base B.
In this case, the operator at the site A can transmit a zoom instruction for zooming the point of interest on the whiteboard, and the image area where the characters on the whiteboard are written can be enlarged. The zoom instruction from the base A is added to the coordinate parameter acquired by the adjustment parameter acquisition unit 40b provided in the terminal 100 described later and the image adjustment signal generated by the image adjustment signal generation unit 20e.

一方、デコーダ部72b1でデコードされた画像データは、画像調整部(A)72cで拠点Aの端末に対して専用の画像調整が行われる。なお、テレビ会議の開始時には操作者による画像調整操作が行われないため、画像調整部(A)72cは調整を行わないこととする。
画像合成部(A)72dは、拠点Aの端末向けの画像データを専用に合成しており、拠点Bおよび拠点Cの各端末からの画像データを合成して1枚の画像データを得る。1枚になった画像データはエンコーダ部72eでエンコードされ、送信部72gからネットワークNを介して拠点Aに配置されている端末100aに送信される。
On the other hand, the image data decoded by the decoder unit 72b1 is subjected to dedicated image adjustment for the terminal at the site A by the image adjustment unit (A) 72c. Note that the image adjustment operation by the operator is not performed at the start of the video conference, and therefore the image adjustment unit (A) 72c does not perform the adjustment.
The image composition unit (A) 72d synthesizes the image data for the terminal at the base A exclusively, and obtains one piece of image data by combining the image data from the terminals at the base B and the base C. The single image data is encoded by the encoder unit 72e and transmitted from the transmission unit 72g to the terminal 100a disposed at the site A via the network N.

拠点Aに配置されている端末100aの受信部20cでは、ネットワークNを介して画像データ(拠点Bおよび拠点C)を受信し、受信された画像データは、デコーダ部20dでデコードされ、画像表示部30aであるタッチパネル7に表示される。一方、画像データのヘッダ部にはこの画像データと関連付けられた各拠点の端末のIDデータが含まれており、受信部20cで画像データを受信する際に画像データと関連したIDデータが抽出され、画像調整I/F部40のID表示部40aにIDデータが表示される。
このとき、操作者は画像調整したいIDデータの付けられた拠点の端末からの画像に対して、マウス8aを操作して表示画面上の目標領域を図5に示す点線部81のように選択する。
調整パラメータ取得部40bは、選択した結果から、画像調整対象となった画像のIDデータと、表示したい画像領域の画像座標から調整パラメータを取得する。次いで、画像調整信号生成部20eは、調整パラメータ取得部40bで取得された調整パラメータと、現在使用している画像の座標情報に基づいて、画像調整信号を生成する。
そして、送信部20bは、画像調整する対象となる拠点の端末のIDデータと、調整パラメータ(画像座標)とをネットワークNを介してMCU70に送信する。
The receiving unit 20c of the terminal 100a arranged at the site A receives the image data (base B and site C) via the network N, and the received image data is decoded by the decoder unit 20d to be an image display unit. It is displayed on the touch panel 7 which is 30a. On the other hand, the header portion of the image data includes the ID data of the terminal at each base associated with the image data, and the ID data related to the image data is extracted when the receiving unit 20c receives the image data. The ID data is displayed on the ID display section 40a of the image adjustment I / F section 40.
At this time, the operator operates the mouse 8a to select the target area on the display screen as indicated by the dotted line portion 81 shown in FIG. 5 with respect to the image from the terminal at the base with the ID data to be adjusted. .
The adjustment parameter acquisition unit 40b acquires the adjustment parameter from the selected result based on the ID data of the image to be adjusted and the image coordinates of the image area to be displayed. Next, the image adjustment signal generation unit 20e generates an image adjustment signal based on the adjustment parameter acquired by the adjustment parameter acquisition unit 40b and the coordinate information of the currently used image.
Then, the transmission unit 20b transmits the ID data of the terminal at the base that is the target of image adjustment and the adjustment parameters (image coordinates) to the MCU 70 via the network N.

次いで、MCU70に設けられた受信部72aは、拠点Aに配置されている端末100aから受信した画像調整信号に従って、各拠点の端末からの画像データを画像調整(A)部72cで調整する。具体的には、画像調整(A)部72cは、操作者の選択した拠点Aの端末のIDデータと調整パラメータである画像座標とに基づいて、IDデータで示される対象となる拠点の端末の画像データを画像座標により切り出し、切り出した画像データを拡大する。
そして、画像合成(A)部72dは、拠点BまたはCの端末からの画像データと、拠点Aの端末からの画像データに切り出し処理と拡大処理を施した画像データとを合成して1枚の画像データを得て、合成された画像データをエンコーダ(A)部72eでエンコードし、送信部72gからネットワークNを介して端末100bまたは100cに送信する。
以上説明した各部の動作を拠点の端末毎に行うことにより、図5に示すように、拠点に夫々配置した各端末において、他の拠点の端末から受信した画像中に目視確認したい画像領域の画像が含まれるようにすることができる。
Next, the receiving unit 72a provided in the MCU 70 adjusts the image data from the terminal at each site by the image adjustment (A) unit 72c in accordance with the image adjustment signal received from the terminal 100a disposed at the site A. Specifically, the image adjustment (A) unit 72c, based on the ID data of the terminal of the base A selected by the operator and the image coordinates that are the adjustment parameters, the terminal of the target base indicated by the ID data. Image data is cut out by image coordinates, and the cut-out image data is enlarged.
Then, the image composition (A) unit 72d synthesizes the image data from the terminal at the base B or C and the image data obtained by performing the cutout process and the enlargement process on the image data from the terminal at the base A. Image data is obtained, the synthesized image data is encoded by the encoder (A) unit 72e, and transmitted from the transmission unit 72g to the terminal 100b or 100c via the network N.
By performing the operation of each unit described above for each terminal at the base, as shown in FIG. 5, in each terminal arranged at the base, an image of an image area to be visually confirmed in an image received from a terminal at another base Can be included.

図6を参照して、本発明の第1実施形態に係わる多拠点接続方式の端末100とMCU70との間の処理を示すシーケンスについて説明する。なお、このシーケンス図は、拠点Aに配置されている端末100aにおいて、拠点Bおよび拠点Cの各端末から受信した画像データを表示画面に表示させることを想定している。
拠点Bおよび拠点Cに配置されているそれぞれの端末100a、100bにおいて、画像取得部10aが撮影対象を撮影して画像データを取得する(S11)。
画像取得部10aで取得された画像データに対して、エンコーダ部20aは画像データをエンコードする(S12)。
送信部20bは、画像エンコード部20aでエンコードされた画像データに対して、送信元として当該拠点の端末を示すIDデータをヘッダ部に付加し、IDデータが付加されたヘッダ部を有する画像データをネットワークNを介してMCU70に送信する(S13)。
With reference to FIG. 6, the sequence which shows the process between the terminal 100 of the multi-site connection system and MCU70 concerning 1st Embodiment of this invention is demonstrated. This sequence diagram assumes that image data received from each terminal of the base B and the base C is displayed on the display screen in the terminal 100a arranged at the base A.
In each of the terminals 100a and 100b arranged at the site B and the site C, the image acquisition unit 10a captures an imaging target and acquires image data (S11).
The encoder unit 20a encodes the image data for the image data acquired by the image acquisition unit 10a (S12).
The transmission unit 20b adds ID data indicating the terminal of the base as a transmission source to the header portion of the image data encoded by the image encoding unit 20a, and the image data having the header portion to which the ID data is added. The data is transmitted to the MCU 70 via the network N (S13).

拠点Aに配置されている端末100aにおいて、画像取得部10aが画像データを取得する(S21)。
画像取得部10aで取得された画像データに対して、エンコーダ部20aは画像データをエンコードする(S22)。
送信部20bは、画像エンコーダ部20aでエンコードされた画像データのヘッダ部に対して、送信元として当該拠点の端末を示すIDデータを付加し、IDデータが付加されたヘッダ部を有する画像データをネットワークNを介してMCU70に送信する(S23)。
In the terminal 100a arranged at the site A, the image acquisition unit 10a acquires image data (S21).
For the image data acquired by the image acquisition unit 10a, the encoder unit 20a encodes the image data (S22).
The transmission unit 20b adds ID data indicating the terminal of the base as a transmission source to the header portion of the image data encoded by the image encoder unit 20a, and the image data having the header portion to which the ID data is added. The data is transmitted to the MCU 70 via the network N (S23).

MCU70では、夫々の拠点の各端末からネットワークNを介して送信された画像データを受信部72aで受信する(S31)。
ステップS31において、受信部72aで受信した各拠点の端末からの画像データは、デコーダ部72b1、72b2、72b3でデコードされる(S32)。なお、受信部72aでは、受信した各拠点の端末からの画像データのヘッダ部に含まれる送信元のIDデータを抽出し、ID・座標情報生成部72fに出力する。
ステップS32において、ID・座標情報生成部72fは、デコーダ部72b1、72b2、72b3でデコードされた各画像データに対応するIDデータと現在使用している座標情報を生成する(S33)。
デコーダ部72b1、72b2、72b3でデコードされた各拠点の端末からの画像データを画像合成(A)部72dで合成する。ここでは、拠点Aの端末の表示画面に表示させることを想定しているので、画像合成(A)部72dでは拠点Bおよび拠点Cの端末からの画像データを合成する(S34)。
ステップS34において、画像合成(A)部72dで合成した画像データをエンコーダ部72eでエンコードする(S35)。
ステップS35において、エンコーダ部72eでエンコードした画像データと、ステップS33において、ID・座標情報生成部72fで生成したIDデータと、を送信部72gから拠点Aの端末100aに送信する(S36)。
In the MCU 70, the receiving unit 72a receives the image data transmitted from each terminal at each base via the network N (S31).
In step S31, the image data from the terminal at each site received by the receiving unit 72a is decoded by the decoder units 72b1, 72b2, and 72b3 (S32). The receiving unit 72a extracts the source ID data included in the header portion of the received image data from the terminal at each base, and outputs the extracted ID data to the ID / coordinate information generating unit 72f.
In step S32, the ID / coordinate information generation unit 72f generates ID data corresponding to the image data decoded by the decoder units 72b1, 72b2, and 72b3 and the currently used coordinate information (S33).
The image data from the terminals at the respective locations decoded by the decoder units 72b1, 72b2, 72b3 is synthesized by the image synthesis (A) unit 72d. Here, since it is assumed to be displayed on the display screen of the terminal at the site A, the image composition (A) unit 72d synthesizes image data from the terminals at the site B and the site C (S34).
In step S34, the image data synthesized by the image synthesis (A) unit 72d is encoded by the encoder unit 72e (S35).
In step S35, the image data encoded by the encoder unit 72e and the ID data generated by the ID / coordinate information generation unit 72f in step S33 are transmitted from the transmission unit 72g to the terminal 100a at the site A (S36).

拠点Aに配置されている端末100aでは、まず受信部20cは、MCU70からネットワークNを介して送信されてくる画像データ(拠点B、Cの端末からの画像データ)と、画像データのヘッダ部に付加されたIDデータと、現在使用している座標情報とを受信する(S41)。
次いで、受信部20cで受信した画像データをデコーダ部20dでデコードする(S42)。
次いで、デコーダ部20dでデコードした画像データを画像表示部30aであるタッチパネル7の表示画面に表示する。同時に、受信部20cは、受信している画像データのヘッダ部に含まれる送信元のIDデータを抽出しており、受信部20cで受信したIDデータをID表示部40aであるタッチパネル7の表示画面に表示する(S43)。
ステップS43において、タッチパネル7の表示画面に表示されている画像は、例えば図7(a)に示すようになる。
In the terminal 100a disposed at the site A, the receiving unit 20c first uses the image data transmitted from the MCU 70 via the network N (image data from the terminals at the sites B and C) and the header portion of the image data. The added ID data and the currently used coordinate information are received (S41).
Next, the image data received by the receiving unit 20c is decoded by the decoder unit 20d (S42).
Next, the image data decoded by the decoder unit 20d is displayed on the display screen of the touch panel 7 which is the image display unit 30a. At the same time, the receiving unit 20c extracts the source ID data included in the header portion of the received image data, and displays the ID data received by the receiving unit 20c on the display screen of the touch panel 7 which is the ID display unit 40a. (S43).
In step S43, the image displayed on the display screen of the touch panel 7 is, for example, as shown in FIG.

ここで、拠点Aの端末を操作する操作者が、拠点Bに配置されているホワイトボードの一部の画像を、端末100aに接続されているタッチパネル7上で拡大してみたいとする。つまり、図7(a)に示す破線で囲まれる画像領域81(ホワイトボードの一部)を拡大してみたいとする。
この際、拠点Aの端末の操作者がタッチパネル7の表示画面に表示されている拠点Bの端末からの画像の一部の画像領域81(破線で囲まれる画像領域)に対して、タッチパネル7上にタッチ操作して選択すると、タッチパネル7から調整パラメータ取得部40bに座標情報が出力される。この結果、調整パラメータ取得部40bは、表示画面上の選択された画像領域81の座標パラメータを取得する(S44)。
ステップS44において、調整パラメータ取得部40bが取得した座標パラメータと、現在使用している座標情報から、画像データを調整するための画像調整信号を画像調整信号生成部20eで生成する(S45)。
ステップS45において、画像調整信号生成部20eで生成した画像調整信号を送信部20bからMCU70に送信する。
Here, it is assumed that the operator who operates the terminal at the base A wants to enlarge a partial image of the whiteboard arranged at the base B on the touch panel 7 connected to the terminal 100a. That is, assume that the user wants to enlarge the image area 81 (a part of the whiteboard) surrounded by a broken line shown in FIG.
At this time, the operator of the terminal at the base A performs a part of the image area 81 (image area surrounded by a broken line) of the image from the terminal at the base B displayed on the display screen of the touch panel 7 on the touch panel 7. When the touch operation is selected, coordinate information is output from the touch panel 7 to the adjustment parameter acquisition unit 40b. As a result, the adjustment parameter acquisition unit 40b acquires the coordinate parameters of the selected image area 81 on the display screen (S44).
In step S44, the image adjustment signal generation unit 20e generates an image adjustment signal for adjusting the image data from the coordinate parameter acquired by the adjustment parameter acquisition unit 40b and the coordinate information currently used (S45).
In step S45, the image adjustment signal generated by the image adjustment signal generation unit 20e is transmitted from the transmission unit 20b to the MCU 70.

MCU70では、受信部72aは拠点Aに配置されている端末100aから送信された画像調整信号を受信する(S51)。
受信部72aで受信した画像調整信号を画像調整(A)部72cに出力する。画像調整(A)部72cは、画像調整信号に基づいて、画像データに対して拡大処理または縮小処理を行うことで画像の位置や大きさを調整する(S52)。このように、画像データの位置や大きさを調整することで、拠点Bの端末からの画像データを拡大または縮小することができる。
次に、ステップS52において、画像調整(A)部72cで調整を行った画像データと、ステップS52の画像調整(A)部72cで調整を行った画像データを除く、受信部72b1で受信した拠点Cの端末からの画像データを合成する(S53)。すなわち、拠点Bの端末からの調整を行った画像データと、拠点Cの端末からの調整を行っていない画像データとを合成する。
ステップS53の画像合成(A)部72dで合成した画像データをエンコーダ(A)部72eでエンコードする(S54)。
次いで、送信部72gは、エンコーダ部72eでエンコードした画像データを拠点Aに配置されている端末100aに送信する(S55)。
In the MCU 70, the receiving unit 72a receives the image adjustment signal transmitted from the terminal 100a disposed at the site A (S51).
The image adjustment signal received by the reception unit 72a is output to the image adjustment (A) unit 72c. The image adjustment (A) unit 72c adjusts the position and size of the image by performing enlargement processing or reduction processing on the image data based on the image adjustment signal (S52). Thus, by adjusting the position and size of the image data, the image data from the terminal at the site B can be enlarged or reduced.
Next, in step S52, the bases received by the receiving unit 72b1 excluding the image data adjusted by the image adjustment (A) unit 72c and the image data adjusted by the image adjustment (A) unit 72c of step S52. The image data from terminal C is synthesized (S53). That is, the image data adjusted from the terminal at the base B and the image data not adjusted from the terminal at the base C are synthesized.
The image data synthesized by the image synthesis (A) unit 72d in step S53 is encoded by the encoder (A) unit 72e (S54).
Next, the transmission unit 72g transmits the image data encoded by the encoder unit 72e to the terminal 100a arranged at the site A (S55).

次いで、受信部20cは、MCU70から送信された画像データ(拠点Bの端末からの画像の一部を拡大した画像と、拠点Cの端末からの画像)を受信する(S61)。
次いで、デコーダ部20dは、受信部20cで受信した画像データをデコードする(S62)。
次いで、デコーダ部20dでデコードされた画像データは、画像表示部30aであるタッチパネル7に入力され画像データが表示される(S63)。この結果、図7(b)に示すように、ホワイトボードの画像領域が拡大された画像がタッチパネル7の左側に表示される。
Next, the receiving unit 20c receives the image data (an image obtained by enlarging a part of the image from the terminal at the base B and the image from the terminal at the base C) transmitted from the MCU 70 (S61).
Next, the decoder unit 20d decodes the image data received by the receiving unit 20c (S62).
Next, the image data decoded by the decoder unit 20d is input to the touch panel 7 which is the image display unit 30a, and the image data is displayed (S63). As a result, an image in which the image area of the whiteboard is enlarged is displayed on the left side of the touch panel 7 as shown in FIG.

ここで、拠点Aに配置されている端末100aのみから、MCU70に対して拠点Bの端末からの画像データの一部を拡大するための画像調整信号を送信した。この場合、拠点Cの端末100cからは拠点Aの端末100aと同一の画像調整信号が送信されていないので、拠点Cと拠点Aとでは夫々端末の表示画面に表示される拠点Bの端末からの画像の画像領域が異なる。   Here, the image adjustment signal for enlarging a part of the image data from the terminal at the base B is transmitted to the MCU 70 from only the terminal 100a arranged at the base A. In this case, since the same image adjustment signal as that of the terminal 100a at the site A is not transmitted from the terminal 100c at the site C, each of the site C and the site A receives from the terminal at the site B displayed on the display screen of the terminal. The image area of the image is different.

図5を参照して、本発明の第1実施形態に係わる管理装置により実現可能な、各拠点に多拠点の画像の目視確認したい画像領域を選択できる機能について説明する。
例えば、拠点Aの端末からの画像には人物とホワイトボードが映っているとする。ここで、拠点Cの操作者は人物を、拠点Bの操作者はホワイトボードを大きく目視確認したいといった場合に、従来技術の多拠点テレビ会議システムでは、拠点Aにおいて操作者が人物とホワイトボードに順番にカメラをパンチルトズームPTZして向ける必要があり、同時にそれぞれの拠点B、Cの操作者が目視確認したい画像領域を表示することができなかった。
これに対して、本実施形態によれば、図5に示すように、拠点Cの端末100cに設けられたタッチパネル7の表示画面の左側には人物が拡大表示され、拠点Bの端末100bに設けられたタッチパネル7の表示画面の左側にはホワイトボードが拡大表示されている。
なお、多拠点接続方式では、端末100側での処理が少なくなるので端末側での処理コストを下げられる一方、MCU70側での処理が多くなるのでMCU70側での処理コストは上昇する、といった特徴がある。
With reference to FIG. 5, a function that can be realized by the management apparatus according to the first embodiment of the present invention and that can select an image area for which a multi-site image to be visually confirmed can be selected for each base will be described.
For example, it is assumed that a person and a whiteboard are reflected in the image from the terminal at the site A. Here, when the operator at the site C wants to visually check the person and the operator at the site B wants to visually check the whiteboard, in the conventional multi-site video conference system, the operator at the site A can change the person and the whiteboard. It is necessary to point the camera at the pan / tilt / zoom PTZ in order, and at the same time, it is not possible to display an image area that the operators of the respective bases B and C want to visually check.
On the other hand, according to the present embodiment, as shown in FIG. 5, a person is enlarged and displayed on the left side of the display screen of the touch panel 7 provided at the terminal 100c at the site C, and provided at the terminal 100b at the site B. A whiteboard is enlarged and displayed on the left side of the display screen of the touch panel 7.
In the multi-site connection method, since processing on the terminal 100 side is reduced, the processing cost on the terminal side can be reduced, while processing on the MCU 70 side is increased, so that processing cost on the MCU 70 side is increased. There is.

<第2実施形態>
図8を参照して、本発明の第2実施形態に係わる画像処理装置に適用可能なルータ接続方式のテレビ会議端末150とルータ170の処理ブロックの各機能について説明する。
上述した第1実施形態にあっては、各拠点A、B、Cに配置された端末100a、100b、100cがMCU70に接続される構成のシステムであった。これに対して、第2実施形態では、例えば各拠点A、B、Cに配置された端末150a、150b、150cがルータ170を介して接続される構成のシステムである。ここで、端末150は、任意の拠点に配置されている端末を示している。
Second Embodiment
With reference to FIG. 8, each function of the processing blocks of the router connection type video conference terminal 150 and the router 170 applicable to the image processing apparatus according to the second embodiment of the present invention will be described.
In the first embodiment described above, the system is configured such that the terminals 100 a, 100 b, and 100 c arranged at the respective bases A, B, and C are connected to the MCU 70. On the other hand, the second embodiment is a system in which terminals 150 a, 150 b, and 150 c arranged at each base A, B, and C are connected via a router 170, for example. Here, the terminal 150 indicates a terminal arranged at an arbitrary base.

拠点Aに配置されている端末150aは、撮影装置151と、処理装置153と、表示装置155と、画像調整I/F部157とを備えている。
撮影装置151は、例えば、デジタルカメラ、ビデオカメラを有し、カメラで撮像対象を撮影して画像信号を取得し、画像信号をA/D変換して得た画像データをエンコーダ部153aに出力する画像取得部151aを備えている。
処理装置153は、画像取得部10aから入力される画像データを符号化(エンコード)して圧縮された例えばMPEG方式やJPEG方式の画像データを生成するエンコーダ部153aと、符号化(エンコード)して圧縮された画像データを送信する送信部153bと、ネットワークNを介して符号化された画像データを受信する受信部153cと、符号化された画像データを復号(デコード)して元の画像データを生成するデコーダ(C)部153d2と、符号化された画像データを復号(デコード)して元の画像データを生成するデコーダ(B)部153d1と、操作者が選択した拠点の端末からのIDデータと画像座標とに基づいて、対象となる拠点の端末からの画像データを切り出し処理し、拡大処理する画像調整部153eと、2つの拠点の端末からの画像データを合成して1枚の画像データを得る画像合成部153fと、受信した画像データに含まれる送信元のIDデータと座標情報を抽出して生成するID・座標情報生成部153gと、調整パラメータ取得部157bが取得した調整パラメータと、ID・座標情報生成部153gにより生成された現在使用している座標情報から、画像データを調整するための画像調整信号を生成する画像調整信号生成部153hとを備えている。
表示装置155は、画像データを表示する画像表示部155aとしてタッチパネル7を備えている。
The terminal 150 a arranged at the site A includes an imaging device 151, a processing device 153, a display device 155, and an image adjustment I / F unit 157.
The imaging device 151 includes, for example, a digital camera and a video camera, captures an imaging target with the camera, acquires an image signal, and outputs image data obtained by A / D converting the image signal to the encoder unit 153a. An image acquisition unit 151a is provided.
The processing device 153 encodes (encodes) an encoder unit 153a that generates, for example, MPEG or JPEG image data that is compressed by encoding (encoding) the image data input from the image acquisition unit 10a. A transmission unit 153b for transmitting compressed image data, a reception unit 153c for receiving image data encoded via the network N, and decoding (decoding) the encoded image data into the original image data A decoder (C) unit 153d2 to be generated, a decoder (B) unit 153d1 that decodes the encoded image data to generate the original image data, and ID data from the terminal at the base selected by the operator And an image adjustment unit 153e that cuts out and enlarges the image data from the terminal at the target base based on the image coordinates, An image composition unit 153f that synthesizes image data from terminals at one base to obtain one piece of image data, and ID / coordinate information that is generated by extracting ID data and coordinate information of the transmission source included in the received image data An image adjustment signal for adjusting image data is generated from the adjustment parameter acquired by the generation unit 153g, the adjustment parameter acquisition unit 157b, and the currently used coordinate information generated by the ID / coordinate information generation unit 153g. And an image adjustment signal generation unit 153h.
The display device 155 includes a touch panel 7 as an image display unit 155a that displays image data.

画像調整I/F部157は、拠点の端末から受信した画像データに対応するIDデータを表示するID表示部157aと、タッチパネル7の表示画面上のタッチにより選択された画像領域の調整パラメータを取得し、画像調整信号生成部153hに出力する調整パラメータ取得部157bとを備えている。
ルータ170は、ルーティング機能を備えた従来のルータであり、処理装置170aでは、通信プロトコルとして例えばTCP/IPにより画像データ(パケット)に含まれている宛先情報から転送先を決定し、受信した画像データを転送先に送信する。
The image adjustment I / F unit 157 acquires an ID display unit 157a that displays ID data corresponding to the image data received from the terminal at the base, and an adjustment parameter of the image area selected by touching on the display screen of the touch panel 7 And an adjustment parameter acquisition unit 157b that outputs the image adjustment signal generation unit 153h.
The router 170 is a conventional router having a routing function. In the processing device 170a, a transfer destination is determined from destination information included in image data (packet) by, for example, TCP / IP as a communication protocol, and the received image is received. Send data to the destination.

次に、図8を参照して、ルータ接続方式の端末150の動作について説明する。
なお、第2実施形態にあっては、第1実施形態と同様に、拠点Aの端末に対する操作者の指示に応じて、拠点Bまたは拠点Cの端末からの画像データの大きさを変更することパンチルトズームPTZを想定する。また第2実施形態にあっては、3箇所の拠点に配置された端末を想定しているが、2箇所の拠点に配置された端末でもよい。
拠点Aに配置されている端末150aの画像取得部151aで撮影対象を撮像して画像データを取得する。画像取得部151aで取得された画像データは、エンコーダ部153aでエンコードされる。エンコーダ部153aでエンコードされた画像データは、送信部153bからネットワークNを介してルータ170に向かって送信される。
拠点Aに配置されている端末150aから送信された画像データは、ルータ170に設けられた処理装置170aにおいてルーティングされ、他の拠点B、Cに配置されている端末150b、150cに送信される。他の拠点B、Cに配置されている端末150b、150cからの画像データも同様にルーティングされ、拠点Aに配置されている端末150aに送信される。
Next, the operation of the router connection type terminal 150 will be described with reference to FIG.
Note that, in the second embodiment, as in the first embodiment, the size of the image data from the terminal at the base B or the base C is changed according to an instruction from the operator to the terminal at the base A. A pan / tilt zoom PTZ is assumed. In the second embodiment, terminals arranged at three locations are assumed, but terminals arranged at two locations may be used.
The image acquisition unit 151a of the terminal 150a arranged at the site A captures the imaging target and acquires image data. The image data acquired by the image acquisition unit 151a is encoded by the encoder unit 153a. The image data encoded by the encoder unit 153a is transmitted from the transmission unit 153b to the router 170 via the network N.
The image data transmitted from the terminal 150a disposed at the site A is routed by the processing device 170a provided in the router 170, and transmitted to the terminals 150b and 150c disposed at the other sites B and C. The image data from the terminals 150b and 150c arranged at the other bases B and C are similarly routed and transmitted to the terminal 150a arranged at the base A.

拠点Aに配置されている端末150aにおいて、他の拠点B、Cに配置されている端末150b、150cから送信された画像データは受信部153aで受信される。受信部153aで受信された他の拠点の端末からの画像データは、各々デコーダ部153d1、153d2でデコードされる。デコーダ部153d1、153d2でデコードされた後に、画像調整部153eで画像調整される。しかし、テレビ会議開始時には操作者からの画像調整操作が行われないため画像調整部153eでの画像調整は行わない。拠点Aの端末からの画像も含め画像合成部153fで画像データが合成され、1枚の画像データが得られる。画像合成部153fで合成された画像データは画像表示部155aであるタッチパネル7に表示される。   In the terminal 150a arranged at the site A, the image data transmitted from the terminals 150b and 150c arranged at the other sites B and C is received by the receiving unit 153a. The image data from the terminals at other bases received by the receiving unit 153a is decoded by the decoder units 153d1 and 153d2, respectively. After being decoded by the decoder units 153d1 and 153d2, the image adjustment unit 153e performs image adjustment. However, since no image adjustment operation is performed by the operator at the start of the video conference, image adjustment by the image adjustment unit 153e is not performed. The image data including the image from the terminal at the site A is combined by the image combining unit 153f to obtain one piece of image data. The image data synthesized by the image synthesis unit 153f is displayed on the touch panel 7 which is the image display unit 155a.

一方で、端末150aに設けられた処理装置153において、受信部153cは各拠点の端末からの画像データを受信する。ID・座標情報生成部153gは受信部153cで受信した画像データに対し、画像データに含まれるIDデータと現在使用している画像の座標情報を抽出して生成する。ID・座標情報生成部153gで生成されたIDデータは、画像調整I/F157を介してID表示部157aであるタッチパネル7に表示される。操作者は、タッチパネル7の表示画面に対して、画像調整したいIDデータの付けられた拠点の端末からの画像の中から表示したい画像領域をタッチ操作し、図5に示す点線部81のように選択する。
タッチパネル7へのタッチ操作により選択した結果、画像調整の対象となった目標画像のIDデータと表示したい画像領域の座標が、画像調整I/F157に設けられた調整パラメータ取得部157bで座標パラメータとして取得される。
On the other hand, in the processing device 153 provided in the terminal 150a, the receiving unit 153c receives image data from the terminal at each base. The ID / coordinate information generation unit 153g extracts and generates the ID data included in the image data and the coordinate information of the currently used image from the image data received by the reception unit 153c. The ID data generated by the ID / coordinate information generation unit 153g is displayed on the touch panel 7 serving as the ID display unit 157a via the image adjustment I / F 157. The operator touches the display screen of the touch panel 7 with respect to the image area to be displayed from the image from the terminal at the base where the ID data to be adjusted is attached, and a dotted line portion 81 shown in FIG. select.
As a result of the selection by the touch operation on the touch panel 7, the ID data of the target image subjected to image adjustment and the coordinates of the image area to be displayed are coordinate parameters by the adjustment parameter acquisition unit 157b provided in the image adjustment I / F 157. To be acquired.

次いで、調整パラメータ取得部157bで取得された座標パラメータと現在使用している画像の座標情報に基づいて、画像調整信号生成部153hで画像調整信号が生成される。
この画像調整の対象とする拠点の端末のIDデータと、生成された画像調整パラメータ(画像座標)に従って、各拠点の端末からの画像データを画像調整部153eで調整する。具体的には、操作者が選択した拠点の端末のIDデータと画像座標とに基づいて、対象となる拠点の端末からの画像データを切り出し処理し、拡大処理する。そして、画像合成部153fで画像を合成する。
以上の処理動作を対象となる拠点の端末毎に行うことにより、図5に示すように、拠点に夫々配置した各端末において、他の拠点の端末から受信した画像中に目視確認したい画像領域の画像が含まれるようにすることができる。
Next, based on the coordinate parameters acquired by the adjustment parameter acquisition unit 157b and the coordinate information of the currently used image, the image adjustment signal generation unit 153h generates an image adjustment signal.
The image adjustment unit 153e adjusts the image data from the terminal at each base in accordance with the ID data of the terminal at the base targeted for image adjustment and the generated image adjustment parameters (image coordinates). Specifically, based on the ID data and image coordinates of the terminal at the base selected by the operator, the image data from the terminal at the target base is cut out and enlarged. Then, the image is synthesized by the image synthesis unit 153f.
By performing the above processing operation for each terminal at the target base, as shown in FIG. 5, in each terminal arranged at the base, the image area to be visually confirmed in the image received from the terminal at the other base. Images can be included.

図9を参照して、本発明の第2実施形態に係わる画像処理装置による処理の一例として、端末150とルータ170との間の処理を示すシーケンスについて説明する。
拠点Bおよび拠点Cに配置されている各端末150b、150cにおいて、画像取得部151aが画像データを取得する(S111)。
画像取得部151aで取得された画像データに対して、エンコーダ部153aは画像データをエンコードする(S112)。
送信部153bは、エンコーダ部153aでエンコードされた画像データに対して、送信元として当該拠点の端末を示すIDデータをヘッダ部に付加し、IDデータが付加されたヘッダ部を有する画像データをネットワークNを介してルータ170に送信する(S113)。
ネットワークNを介して画像データを受信したルータ170は、処理装置170aによってルーティングされ、拠点Aに配置されている端末150aに送信される(S121)。ここで、ルータ170に設けられた処理装置170aでは、通信プロトコルとして例えばTCP/IPにより画像データ(パケット)に含まれている宛先情報から転送先を決定する。
With reference to FIG. 9, a sequence indicating processing between the terminal 150 and the router 170 will be described as an example of processing performed by the image processing apparatus according to the second embodiment of the present invention.
In each of the terminals 150b and 150c arranged at the site B and the site C, the image acquisition unit 151a acquires image data (S111).
For the image data acquired by the image acquisition unit 151a, the encoder unit 153a encodes the image data (S112).
The transmission unit 153b adds ID data indicating the terminal of the base as a transmission source to the header portion of the image data encoded by the encoder unit 153a, and adds the image data including the header portion to which the ID data is added to the network. N is transmitted to the router 170 via N (S113).
The router 170 that has received the image data via the network N is routed by the processing device 170a and transmitted to the terminal 150a located at the site A (S121). Here, in the processing device 170a provided in the router 170, a transfer destination is determined from destination information included in image data (packet) by TCP / IP as a communication protocol, for example.

拠点Aに配置されている端末150aにおいて、ルータ170からネットワークNを介して送信された画像データを受信部153cで受信し、ID・座標情報生成部153gは受信した画像データのヘッダ部に含まれる送信元のIDデータを抽出して生成する(S131)。
受信部153cで受信した各拠点の端末からの画像データのうち、画像データに含まれる送信元が拠点Bの端末である画像データはデコーダ(B)部153d1に出力され、デコーダ(B)部153d1は画像データをデコードして画像調整部153eに出力し、一方、画像データに含まれる送信元が拠点Cの端末である画像データはデコーダ(C)部153d2に出力され、デコーダ(C)部153d2は画像データをデコードして画像調整部153eに出力する(S132)。
デコードされた各拠点の端末からの画像データを入力した画像調整部153eは、画像調整信号が入力されていない状態では画像調整を行わずに、入力された拠点B、Cの各画像データを画像合成部153fに出力する。
画像合成部153fは、入力された画像データの一方を右側に他方を左側に配置して合成し、画像表示部155aに出力する。ここでは、拠点Aの端末の表示画面に表示させることを想定しているので、拠点Bおよび拠点Cの端末からの画像データが合成される(S133)。
In the terminal 150a arranged at the site A, the receiving unit 153c receives the image data transmitted from the router 170 via the network N, and the ID / coordinate information generating unit 153g is included in the header portion of the received image data. The source ID data is extracted and generated (S131).
Of the image data received from the terminal at each site received by the receiving unit 153c, the image data whose transmission source is the terminal at the site B included in the image data is output to the decoder (B) unit 153d1, and the decoder (B) unit 153d1 Decodes the image data and outputs it to the image adjustment unit 153e, while the image data whose transmission source is the terminal at the base C is output to the decoder (C) unit 153d2, and the decoder (C) unit 153d2 Decodes the image data and outputs it to the image adjustment unit 153e (S132).
The image adjustment unit 153e that has input the decoded image data from the terminal of each base does not perform image adjustment in a state where no image adjustment signal is input, and images the input image data of the bases B and C. The data is output to the combining unit 153f.
The image combining unit 153f combines and arranges one of the input image data on the right side and the other on the left side, and outputs it to the image display unit 155a. Here, since it is assumed to be displayed on the display screen of the terminal at the base A, the image data from the terminals at the base B and the base C are combined (S133).

ステップS133において画像合成部153fで合成された画像データを、画像表示部155aであるタッチパネル7の表示画面に表示し、同時に、ステップS131において生成された送信元のIDデータをID表示部157aであるタッチパネル7の表示画面に表示する(S134)。
ステップS134においてタッチパネル7の表示画面に表示されている画像は、例えば図12(c)に示すようになる。
ここで、拠点Aの端末に対して操作する操作者が、拠点Bに配置されているホワイトボードの一部を拡大表示したいこととする。すなわち、図12(c)に示す破線で囲まれる画像領域(ホワイトボードの一部)の拡大画像を目視確認したいこととする。この際、拠点Aの操作者がタッチパネル7の表示画面に表示されている拠点Bの端末からの画像の一部(破線で囲まれる画像領域)をタッチして選択すると、調整パラメータ取得部157bは、タッチパネル7の表示画面上のタッチにより選択された画像領域の調整パラメータを取得し、画像調整信号生成部153hに出力する(S135)。
The image data combined by the image combining unit 153f in step S133 is displayed on the display screen of the touch panel 7 serving as the image display unit 155a, and at the same time, the transmission source ID data generated in step S131 is the ID display unit 157a. It is displayed on the display screen of the touch panel 7 (S134).
The image displayed on the display screen of the touch panel 7 in step S134 is as shown in FIG.
Here, it is assumed that the operator who operates the terminal at the site A wants to enlarge and display a part of the whiteboard arranged at the site B. That is, it is desired to visually confirm an enlarged image of an image region (a part of the whiteboard) surrounded by a broken line shown in FIG. At this time, when the operator at the site A touches and selects a part of the image from the terminal at the site B displayed on the display screen of the touch panel 7 (an image region surrounded by a broken line), the adjustment parameter acquisition unit 157b Then, the adjustment parameter of the image area selected by the touch on the display screen of the touch panel 7 is acquired and output to the image adjustment signal generation unit 153h (S135).

画像調整信号生成部153hは、調整パラメータ取得部157bが取得した調整パラメータと、ID・座標情報生成部153gにより生成された現在使用している座標情報から、画像データを調整するための画像調整信号を生成する(S136)。
画像調整部153eは、画像調整信号生成部153hから入力した画像調整信号に基づいて、端末Bまたは端末Cの端末からの画像データを調整する(S137)。
次いで、画像調整部153eで調整を行った画像データと、画像調整部153eで調整を行った拠点の端末からの画像データを除く拠点の画像データとを合成する(S138)。すなわち、画像調整部153eでは、拠点Bの端末から受信した調整を行った画像データと、拠点Cの調整を行っていない画像データとを合成する。
次いで、画像表示部155aは、画像合成部153fで合成した画像データをタッチパネル7の表示画面に表示させる(S139)。
The image adjustment signal generation unit 153h is an image adjustment signal for adjusting image data from the adjustment parameter acquired by the adjustment parameter acquisition unit 157b and the currently used coordinate information generated by the ID / coordinate information generation unit 153g. Is generated (S136).
The image adjustment unit 153e adjusts the image data from the terminal B or the terminal C based on the image adjustment signal input from the image adjustment signal generation unit 153h (S137).
Next, the image data adjusted by the image adjusting unit 153e and the image data of the base excluding the image data from the terminal of the base adjusted by the image adjusting unit 153e are combined (S138). That is, the image adjustment unit 153e combines the image data that has been adjusted received from the terminal at the site B and the image data that has not been adjusted at the site C.
Next, the image display unit 155a displays the image data combined by the image combining unit 153f on the display screen of the touch panel 7 (S139).

図10を参照して、本発明の第2実施形態に係わる画像処理装置により実行される画像パラメータ取得処理について説明する。
画像調整部153eでは、送信部153bがルータ170へ現在送信している当該拠点の端末からの画像データの座標情報をID・座標情報生成部153gに出力する。例えば、各拠点の端末からの画像データは縦X[pics]、横Y[pics]の解像度であり、初期ではこの全ての画像領域を使用していることする。この縦X[pics]、横Y[pics]の座標情報をID・座標情報生成部153gに出力する(S211)。
ID・座標情報生成部153gは、現在送信している当該拠点の画像データの座標情報を画像調整部153eから入力する(S221)。
ID・座標情報生成部153gは、当該拠点のIDデータと画像座標情報を対応付けたデータを生成する(S222)。例えば、拠点Bの端末に関する拠点データとして、{B:オリジナル(0,0)(X,Y)、使用座標(0,0)(X,Y)}を生成する。
With reference to FIG. 10, an image parameter acquisition process executed by the image processing apparatus according to the second embodiment of the present invention will be described.
In the image adjustment unit 153e, the transmission unit 153b outputs the coordinate information of the image data from the terminal of the base currently transmitted to the router 170 to the ID / coordinate information generation unit 153g. For example, it is assumed that the image data from the terminals at each base has a resolution of vertical X [pics] and horizontal Y [pics], and initially uses all of these image areas. The coordinate information of the vertical X [pics] and the horizontal Y [pics] is output to the ID / coordinate information generation unit 153g (S211).
The ID / coordinate information generation unit 153g inputs the coordinate information of the image data of the base currently being transmitted from the image adjustment unit 153e (S221).
The ID / coordinate information generation unit 153g generates data in which the ID data of the base is associated with the image coordinate information (S222). For example, {B: original (0, 0) (X, Y), use coordinates (0, 0) (X, Y)} is generated as the base data regarding the terminal of the base B.

ID・座標情報生成部153gは、当該拠点の端末のIDデータと画像座標情報を対応付けたデータを画像調整信号生成部153hに出力する(S223)。
像調整信号生成部153hは、各拠点の端末のIDデータと画像座標情報を対応付けたデータをID・座標情報生成部153gから受信する(S231)。
調整パラメータ取得部157bは、各拠点の端末のIDデータと画像座標情報を対応付けたデータをID・座標情報生成部153gから入力する(S241)。
調整パラメータ取得部157bは、操作者の指定した拠点の端末のIDデータを取得する(S242)。例えば、図12(b)に示す説明図のような表示画面において、操作者がタッチパネル7の表示画面上で拠点Bの端末を選択した場合、{B:オリジナル(0,0)(X,Y)、使用座標(0,0)(X,Y)}を取得する。
調整パラメータ取得部157bは、操作者がタッチパネル7の表示画面上で指定した画像領域の座標を取得する(S243)。例えば、図11に示す説明図のように、調整パラメータ取得部157bは、座標{(x1’,y1’)(x2’,y2’)}を取得する。
調整パラメータ取得部157bは、取得したIDデータと座標を送信する(S244)。例えば、座標{B(x1’,y1’)(x2’,y2’)}を画像調整信号生成部153hに出力する。
The ID / coordinate information generation unit 153g outputs data in which the ID data of the terminal at the base and the image coordinate information are associated with each other to the image adjustment signal generation unit 153h (S223).
The image adjustment signal generation unit 153h receives data in which the ID data of the terminal at each base is associated with the image coordinate information from the ID / coordinate information generation unit 153g (S231).
The adjustment parameter acquisition unit 157b inputs data in which the ID data of the terminal at each base is associated with the image coordinate information from the ID / coordinate information generation unit 153g (S241).
The adjustment parameter acquisition unit 157b acquires the ID data of the terminal at the base designated by the operator (S242). For example, when the operator selects the terminal at the base B on the display screen of the touch panel 7 on the display screen as illustrated in FIG. 12B, {B: original (0, 0) (X, Y ), Use coordinates (0, 0) (X, Y)}.
The adjustment parameter acquisition unit 157b acquires the coordinates of the image area designated on the display screen of the touch panel 7 by the operator (S243). For example, as illustrated in the explanatory diagram of FIG. 11, the adjustment parameter acquisition unit 157b acquires the coordinates {(x1 ′, y1 ′) (x2 ′, y2 ′)}.
The adjustment parameter acquisition unit 157b transmits the acquired ID data and coordinates (S244). For example, the coordinates {B (x1 ′, y1 ′) (x2 ′, y2 ′)} are output to the image adjustment signal generation unit 153h.

画像調整信号生成部153hは、取得したIDデータと座標を調整パラメータ取得部157bから入力する(S251)。
画像調整信号生成部153hは、取得した座標をオリジナル画像上の座標に変換し、画像調整する座標情報を生成する(S252)。例えば、座標変換として、
{B(x1’,y1’)(x2’,y2’)}→{B(x1,y1)(x2,y2)}
を行う。
画像調整信号生成部153hは、生成した画像調整情報を画像調整部153eに出力する(S253)。
画像調整部153eは、画像調整信号生成部153hが生成した画像調整情報を入力する(S261)。
画像調整部153eは、入力した画像調整情報に基づいて画像調整する(S262)。
The image adjustment signal generation unit 153h inputs the acquired ID data and coordinates from the adjustment parameter acquisition unit 157b (S251).
The image adjustment signal generation unit 153h converts the acquired coordinates into coordinates on the original image, and generates coordinate information for image adjustment (S252). For example, as coordinate transformation,
{B (x1 ′, y1 ′) (x2 ′, y2 ′)} → {B (x1, y1) (x2, y2)}
I do.
The image adjustment signal generation unit 153h outputs the generated image adjustment information to the image adjustment unit 153e (S253).
The image adjustment unit 153e inputs the image adjustment information generated by the image adjustment signal generation unit 153h (S261).
The image adjustment unit 153e adjusts the image based on the input image adjustment information (S262).

次に、図12を参照して、操作者による画像領域の指定手順について説明する。
図12(a)に示す「通常画面(前)」では、タッチパネル7に各拠点の画像データが表示される。
操作ユニット28に設けられた操作ボタン、またはリモコンの操作ボタンを操作者が操作することにより、図12(b)に示す画像調整画面:IDデータ選択に遷移する。
図12(b)に示す「画像調整画面:ID選択」では、本体またはリモコン、マウスのボタン操作、またはタッチパネル7へのタッチ操作により、画像調整したい拠点の端末からの画像を選択して決定する。ここでは、例えば、拠点Bの端末の画像を選択する。
図12(c)に示す「画像調整画面:領域選択」では、操作ユニット28に設けられた操作ボタン、またはリモコンの操作ボタン、またはタッチパネル7に対して、操作者がタッチ、ピンチ操作を行うと、画像調整したい拠点の端末の画像領域が選択され、決定ボタンが押されることにより画像領域を決定する。なお、選択できる画像領域はIDデータを選択した拠点の端末の画像領域内に制限される。ここでは、例えば、拠点Bの端末の画像の破線81領域を選択する。
図12(d)に示す「通常画面(後)」では、選択した拠点の端末からの画像に対して、選択した画像領域が拡大されて表示される。
Next, referring to FIG. 12, a procedure for specifying an image area by the operator will be described.
In the “normal screen (previous)” shown in FIG. 12A, the image data of each site is displayed on the touch panel 7.
When the operator operates an operation button provided on the operation unit 28 or an operation button of the remote controller, the screen shifts to an image adjustment screen: ID data selection shown in FIG.
In the “image adjustment screen: ID selection” shown in FIG. 12B, the image from the terminal at the base where the image is to be adjusted is selected and determined by operating the main body or the remote control, the mouse button operation, or the touch panel 7 touch operation. . Here, for example, the image of the terminal at site B is selected.
In the “image adjustment screen: area selection” shown in FIG. 12C, when an operator performs a touch or pinch operation on an operation button provided on the operation unit 28, an operation button on the remote control, or the touch panel 7. Then, the image area of the terminal at the base where the image adjustment is desired is selected, and the image area is determined by pressing the determination button. In addition, the image area which can be selected is restrict | limited to the image area of the terminal of the base which selected ID data. Here, for example, the broken line 81 area of the image of the terminal at the site B is selected.
In the “normal screen (rear)” shown in FIG. 12D, the selected image area is enlarged and displayed with respect to the image from the terminal at the selected base.

7…タッチパネル、10…撮影装置、10a…画像取得部、20…処理装置、20a…エンコーダ部、20b…送信部、20c…受信部20c、20d…デコーダ部、20e…画像調整信号生成部20e、28…操作ユニット、30…表示装置、30a…画像表示部、画像調整I/F部40、40a…ID表示部、40b…調整パラメータ取得部、70…MCU、72…処理装置、72a…受信部、72b1…デコーダ(A)部、72b2…デコーダ(B)部、72b3…デコーダ(C)部、72g…送信部、73a…画像処理(A)部、73b…画像処理(B)部、73c…画像処理(C)部、100a、100b、100c…端末、150a、150b、150c…端末、151…撮影装置、153…処理装置、155…表示装置、157…画像調整I/F部、153a…エンコーダ部、153b…送信部、153c…受信部、153d1…デコーダ(C)部、153d2…デコーダ(B)部、153e…画像調整部、153f…画像合成部、153g…ID・座標情報生成部、153h…取画像調整信号生成部、155…表示装置155、157…画像調整I/F部、157a…ID表示部、157b…調整パラメータ取得部、170…ルータ、N…ネットワーク   DESCRIPTION OF SYMBOLS 7 ... Touch panel, 10 ... Imaging device, 10a ... Image acquisition part, 20 ... Processing apparatus, 20a ... Encoder part, 20b ... Transmission part, 20c ... Reception part 20c, 20d ... Decoder part, 20e ... Image adjustment signal generation part 20e, 28 ... Operation unit, 30 ... Display device, 30a ... Image display unit, Image adjustment I / F unit 40, 40a ... ID display unit, 40b ... Adjustment parameter acquisition unit, 70 ... MCU, 72 ... Processing device, 72a ... Reception unit 72b1 ... decoder (A) unit, 72b2 ... decoder (B) unit, 72b3 ... decoder (C) unit, 72g ... transmitting unit, 73a ... image processing (A) unit, 73b ... image processing (B) unit, 73c ... Image processing (C) unit, 100a, 100b, 100c ... terminal, 150a, 150b, 150c ... terminal, 151 ... photographing device, 153 ... processing device, 155 ... display device, 15 ... Image adjustment I / F unit, 153a ... Encoder unit, 153b ... Transmission unit, 153c ... Reception unit, 153d1 ... Decoder (C) unit, 153d2 ... Decoder (B) unit, 153e ... Image adjustment unit, 153f ... Image synthesis unit 153g: ID / coordinate information generation unit, 153h: captured image adjustment signal generation unit, 155 ... display device 155, 157 ... image adjustment I / F unit, 157a ... ID display unit, 157b ... adjustment parameter acquisition unit, 170 ... router , N ... Network

特開平05−292497号公報JP 05-292497 A

Claims (8)

少なくとも第1拠点の端末、第2拠点の端末および第3拠点の端末間で画像を送受信する画像管理装置において、
少なくとも前記第2拠点の端末および第3拠点の端末から画像を受信する受信手段と、
前記第1拠点の端末から画像調整信号を受信する画像調整信号受信手段と、
前記第1拠点の端末から受信した画像調整信号に基づいて、前記第2拠点の端末から受信した画像のうち一定の画像領域の大きさを変更する変更手段と、
前記変更手段により変更された前記第2拠点の端末からの画像と、少なくとも前記第3拠点の端末から受信した画像とを合成する合成手段と、
前記合成手段により合成された画像を前記第1拠点の端末に送信する送信手段と、を備えることを特徴とする画像管理装置。
In an image management device that transmits and receives images between at least a first site terminal, a second site terminal, and a third site terminal,
Receiving means for receiving images from at least the second base terminal and the third base terminal;
Image adjustment signal receiving means for receiving an image adjustment signal from the terminal at the first base;
Based on the image adjustment signal received from the terminal at the first base, changing means for changing the size of a certain image area among the images received from the terminal at the second base;
Combining means for combining the image from the terminal at the second base changed by the changing means with the image received from at least the terminal at the third base;
An image management apparatus comprising: a transmission unit configured to transmit an image synthesized by the synthesis unit to the terminal at the first base.
前記送信手段により第1拠点の端末に送信された画像と、第3拠点の端末に送信された画像とは異なることを特徴とする請求項1に記載の画像管理装置。   The image management apparatus according to claim 1, wherein the image transmitted to the terminal at the first site by the transmitting unit is different from the image transmitted to the terminal at the third site. 前記変更手段は、
第1拠点の端末に送信された画像の座標情報と、前記第1拠点の端末から受信した画像調整信号に基づく座標情報とに基づいて、第2拠点の端末から受信した画像の大きさを変更することを特徴とする請求項1に記載の画像管理装置。
The changing means is
The size of the image received from the second site terminal is changed based on the coordinate information of the image transmitted to the first site terminal and the coordinate information based on the image adjustment signal received from the first site terminal. The image management apparatus according to claim 1, wherein:
第1拠点に配置される画像処理装置、少なくとも第2拠点の端末および第3拠点の端末間で画像を送受信する画像処理装置において、
少なくとも前記第2拠点の端末および第3拠点の端末から画像を受信する受信手段と、
少なくとも前記第2拠点の端末から受信した画像に対する変更を指示する指示手段と、
前記指示手段による指示に基づいて、少なくとも前記第2拠点の端末から受信した画像の一定の画像領域の大きさを変更する変更手段と、
前記変更手段により変更された前記第2拠点の端末から受信した画像と、少なくとも前記第3拠点の端末からの画像とを合成する合成手段と、
前記合成手段により合成された画像を表示手段に表示させる表示制御手段と、を備えることを特徴とする画像処理装置。
In an image processing apparatus disposed at a first site, at least an image processing device that transmits and receives images between a terminal at a second site and a terminal at a third site,
Receiving means for receiving images from at least the second base terminal and the third base terminal;
An instruction means for instructing a change to an image received from at least the terminal of the second site;
Changing means for changing the size of a certain image area of the image received from at least the terminal of the second base based on an instruction by the instruction means;
Combining means for combining the image received from the terminal at the second base changed by the changing means and the image from at least the terminal at the third base;
An image processing apparatus comprising: display control means for causing a display means to display an image synthesized by the synthesis means.
少なくとも第1拠点の端末、第2拠点の端末、及び第3拠点の端末間で画像を送受信する画像管理装置と、を備えた画像管理システムにおいて、
前記画像管理装置は、
少なくとも前記第2拠点の端末および第3拠点の端末から画像を受信する受信手段と、
前記第1拠点の端末から画像調整信号を受信する画像調整信号受信手段と、
前記第1拠点の端末から受信した画像調整信号に基づいて、前記第2拠点の端末から受信した画像のうち、一定の画像領域の大きさを変更する変更手段と、
前記変更手段により変更された前記第2拠点の端末から受信した画像と、少なくとも前記第3拠点の端末からの画像とを合成する合成手段と、
前記合成手段により合成された画像を前記第1拠点の端末に送信する送信手段と、を備えることを特徴とする画像管理システム。
In an image management system comprising at least a terminal at a first base, a terminal at a second base, and an image management device that transmits and receives images between terminals at a third base,
The image management device includes:
Receiving means for receiving images from at least the second base terminal and the third base terminal;
Image adjustment signal receiving means for receiving an image adjustment signal from the terminal at the first base;
Based on the image adjustment signal received from the terminal at the first base, changing means for changing the size of a certain image area among the images received from the terminal at the second base;
Combining means for combining the image received from the terminal at the second base changed by the changing means and the image from at least the terminal at the third base;
An image management system comprising: a transmission unit configured to transmit the image synthesized by the synthesis unit to the terminal at the first base.
第1拠点に配置された画像処理装置と、少なくとも第2拠点の端末および第3拠点の端末との間で画像を送受信する画像処理システムにおいて、
前記画像処理装置は、
少なくとも前記第2拠点の端末および第3拠点の端末から画像を受信する受信手段と、
少なくとも前記第2拠点の端末から受信した画像に対する変更を指示する指示手段と、
前記指示手段からの画像調整信号に基づいて、少なくとも前記第2拠点の端末から受信した画像の一定の画像領域の大きさを変更する変更手段と、
前記変更手段により変更された前記第2拠点の端末から受信した画像と、少なくとも前記第3拠点の端末からの画像とを合成する合成手段と、
前記合成手段により合成された画像を表示手段に表示させる表示制御手段と、を備えることを特徴とする画像処理システム。
In an image processing system that transmits and receives an image between the image processing apparatus disposed at the first site and at least the second site terminal and the third site terminal,
The image processing apparatus includes:
Receiving means for receiving images from at least the second base terminal and the third base terminal;
An instruction means for instructing a change to an image received from at least the terminal of the second site;
Based on the image adjustment signal from the instruction means, a changing means for changing the size of a certain image area of at least the image received from the terminal at the second base;
Combining means for combining the image received from the terminal at the second base changed by the changing means and the image from at least the terminal at the third base;
An image processing system comprising: display control means for displaying on the display means the image synthesized by the synthesizing means.
少なくとも第1拠点の端末、第2拠点の端末および第3拠点の端末間で画像を送受信する画像管理装置による画像管理方法において、
少なくとも前記第2拠点の端末および第3拠点の端末から画像を受信する受信工程と、
前記第1拠点の端末から画像調整信号を受信する画像調整信号受信工程と、
前記第1拠点の端末から受信した画像調整信号に基づいて、前記第2拠点の端末から受信した画像のうち一定の画像領域の大きさを変更する変更工程と、
前記変更工程により変更された第2拠点の端末から受信した画像と、少なくとも第3拠点の端末からの画像とを合成する合成工程と、
前記合成工程により合成された画像を前記第1拠点の端末に送信する送信工程と、を実行することを特徴とする画像管理方法。
In an image management method by an image management device that transmits and receives images between at least a terminal at a first base, a terminal at a second base, and a terminal at a third base,
A receiving step of receiving images from at least the second base terminal and the third base terminal;
An image adjustment signal receiving step of receiving an image adjustment signal from the terminal of the first base;
Based on the image adjustment signal received from the terminal at the first site, a changing step for changing the size of a certain image area among the images received from the terminal at the second site;
A synthesizing step of synthesizing the image received from the second base terminal changed by the changing step and the image from at least the third base terminal;
And a transmitting step of transmitting the image synthesized in the synthesizing step to the terminal at the first base.
第1拠点に配置される画像処理装置であって、少なくとも第2拠点の端末および第3拠点の端末間で画像を送受信する画像処理装置による画像処理方法において、
少なくとも前記第2拠点の端末および第3拠点の端末から画像を受信する受信工程と、
少なくとも前記第2拠点の端末から受信した画像に対する変更を指示する指示工程と、
前記指示工程による画像調整信号に基づいて、少なくとも前記第2拠点の端末から受信した画像の一定の画像領域の大きさを変更する変更工程と、
前記変更工程により変更された前記第2拠点の端末から受信した画像と、少なくとも前記第3拠点の端末からの画像とを合成する合成工程と、
前記合成工程により合成された画像を表示手段に表示させる表示工程と、を実行することを特徴とする画像処理方法。
In an image processing method performed by an image processing apparatus disposed at a first site and transmitting and receiving images between at least a second site terminal and a third site terminal,
A receiving step of receiving images from at least the second base terminal and the third base terminal;
An instruction step for instructing a change to an image received from at least the terminal at the second site;
Based on the image adjustment signal by the instruction step, a change step of changing the size of a certain image area of at least the image received from the terminal of the second base,
A synthesizing step of synthesizing the image received from the terminal at the second site changed by the changing step and the image from at least the terminal at the third site;
And a display step of displaying on the display means the image synthesized by the synthesis step.
JP2012113296A 2012-05-17 2012-05-17 Image management device, image processing apparatus, image management system, image processing system, image management method, and image processing method Pending JP2013240004A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012113296A JP2013240004A (en) 2012-05-17 2012-05-17 Image management device, image processing apparatus, image management system, image processing system, image management method, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012113296A JP2013240004A (en) 2012-05-17 2012-05-17 Image management device, image processing apparatus, image management system, image processing system, image management method, and image processing method

Publications (1)

Publication Number Publication Date
JP2013240004A true JP2013240004A (en) 2013-11-28

Family

ID=49764657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012113296A Pending JP2013240004A (en) 2012-05-17 2012-05-17 Image management device, image processing apparatus, image management system, image processing system, image management method, and image processing method

Country Status (1)

Country Link
JP (1) JP2013240004A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021022788A (en) * 2019-07-25 2021-02-18 株式会社リコー Communication terminal, image communication system, display method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021022788A (en) * 2019-07-25 2021-02-18 株式会社リコー Communication terminal, image communication system, display method, and program
JP7346975B2 (en) 2019-07-25 2023-09-20 株式会社リコー Communication terminal, image communication system, display method, and program

Similar Documents

Publication Publication Date Title
US9860486B2 (en) Communication apparatus, communication method, and communication system
JP5569329B2 (en) Conference system, monitoring system, image processing apparatus, image processing method, image processing program, etc.
TWI461057B (en) Control device, camera system and program
KR101662074B1 (en) Control device, camera system, and recording medium
JP2018129716A (en) Image processing device, image processing system, image processing metho, and program
US10592191B2 (en) Apparatus, system, and method of controlling display of image data in a network of multiple display terminals
JP2017085372A (en) Communication system, communication device, communication method and program
JP2007295335A (en) Camera device and image recording and reproducing method
US20190373216A1 (en) Videoconferencing device and method
JP6582874B2 (en) COMMUNICATION SYSTEM, COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM
US20220078344A1 (en) Communication terminal, display method, and non-transitory computer-readable medium
JP2013219544A (en) Image processing apparatus, image processing method, and image processing program
JP2007288354A (en) Camera device, image processing apparatus, and image processing method
JP2004135968A (en) Remote controllable endoscope controlling system
JP2003111041A (en) Image processor, image processing system, image processing method, storage medium and program
JP2002344962A (en) Image communication equipment and portable telephone
JP2009200697A (en) Image transmitter, field angle control method, image receiver, image display system, and image display method
JP2013240004A (en) Image management device, image processing apparatus, image management system, image processing system, image management method, and image processing method
JP2014192745A (en) Imaging apparatus, information processing apparatus, control method and program thereof
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
JP2017168977A (en) Information processing apparatus, conference system, and method for controlling information processing apparatus
JP2013232830A (en) Image processing system, image processing device, image processing method, and image processing program
KR100641176B1 (en) Method for displaying of three dimensions picture in wireless terminal
JP6565777B2 (en) COMMUNICATION DEVICE, CONFERENCE SYSTEM, PROGRAM, AND DISPLAY CONTROL METHOD
JP2015173433A (en) Terminal device and communication system