JP2012182688A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2012182688A
JP2012182688A JP2011044605A JP2011044605A JP2012182688A JP 2012182688 A JP2012182688 A JP 2012182688A JP 2011044605 A JP2011044605 A JP 2011044605A JP 2011044605 A JP2011044605 A JP 2011044605A JP 2012182688 A JP2012182688 A JP 2012182688A
Authority
JP
Japan
Prior art keywords
image data
image processing
image
video conference
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011044605A
Other languages
Japanese (ja)
Inventor
Hiroshi Ono
浩志 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2011044605A priority Critical patent/JP2012182688A/en
Publication of JP2012182688A publication Critical patent/JP2012182688A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of reducing processing load on a communication apparatus when the communication apparatus transmits data for a plurality of images captured by a plurality of imaging means to execute a teleconference, and an image processing method and an image processing program.SOLUTION: A communications system comprises: a PC which transmits data via a network; and a plurality of teleconference terminals connected to the PC in series. Each one of the teleconference terminals acquires the number of the other teleconference terminals connected to the PC in a row. A teleconference terminal acquires image data for the terminal itself from a camera which captures an image (S60), and acquires image data for other devices from other teleconference terminals connected downstream (S61). The acquired image data for the terminal itself and that for the other devices are combined to generate composite image data (S62). The teleconference terminal outputs the generated composite data to the PC (S65).

Description

本発明は、テレビ会議を実行するために通信装置からネットワークを介して送信される画像データを処理する画像処理装置、画像処理方法、および画像処理プログラムに関する。   The present invention relates to an image processing device, an image processing method, and an image processing program for processing image data transmitted from a communication device via a network to execute a video conference.

従来、撮像手段によって撮像された画像のデータを他のデバイスに出力する際に、データの出力先のデバイスの処理負担を低下させる技術が知られている。例えば、特許文献1に記載の撮像装置は、画像を印刷するプリンタに画像データを出力する際に、プリンタからメモリサイズの情報を取得する。取得したメモリサイズに基づいて、プリンタに出力可能な画像データのサイズを算出する。出力する画像データのサイズが、出力可能なサイズよりも大きい場合、撮像装置は、圧縮されている画像データを再圧縮してプリンタに出力する。その結果、画像を印刷する処理が適切に行われる。   2. Description of the Related Art Conventionally, a technique for reducing the processing burden on a data output destination device when outputting image data captured by an imaging unit to another device is known. For example, the imaging apparatus described in Patent Document 1 acquires memory size information from a printer when outputting image data to a printer that prints an image. Based on the acquired memory size, the size of the image data that can be output to the printer is calculated. If the size of the image data to be output is larger than the size that can be output, the imaging apparatus recompresses the compressed image data and outputs the compressed image data to the printer. As a result, processing for printing an image is appropriately performed.

特開2006−101220号公報JP 2006-101220 A

テレビ会議を実行するための通信システムでは、画像データが複数の通信装置間で送受信されることで、複数の拠点の画像がシステム内で共有される。複数の撮像手段によって撮像された複数の画像のデータを1つの通信装置が送信する場合、通信装置は複数の画像を合成し、合成した画像のデータを送信する必要があった。従って、通信装置の処理負担が増大し、テレビ会議中に表示される画像が乱れる可能性があった。従来の技術では、複数の撮像手段によって撮像された複数の画像のデータを送信する場合の通信装置の処理負担を低下させることはできなかった。   In a communication system for executing a video conference, image data is transmitted and received between a plurality of communication devices, so that images of a plurality of bases are shared in the system. When a single communication device transmits data of a plurality of images captured by a plurality of imaging means, the communication device needs to combine a plurality of images and transmit the combined image data. Therefore, the processing load on the communication device is increased, and the image displayed during the video conference may be disturbed. In the prior art, it has not been possible to reduce the processing load on the communication device when transmitting data of a plurality of images captured by a plurality of imaging means.

本発明は、複数の撮像手段によって撮像された複数の画像のデータを通信装置が送信してテレビ会議を実行する場合に、通信装置の処理負担を低下させることができる画像処理装置、画像処理方法、および画像処理プログラムを提供することを目的とする。   The present invention relates to an image processing apparatus and an image processing method capable of reducing the processing burden on a communication apparatus when the communication apparatus transmits data of a plurality of images captured by a plurality of image capturing means to execute a video conference. And an image processing program.

本発明の第一の態様に係る画像処理装置は、ネットワークを介してデータを送信する通信装置と、前記通信装置に対して直列に接続される複数の画像処理装置とを備える通信システムにおいて使用され、他の拠点で表示させる画像の画像データを前記通信装置に出力することが可能な画像処理装置であって、前記通信装置に連なって接続している他の画像処理装置の台数を取得する台数取得手段と、画像を撮像する撮像手段から第一画像データを取得する第一画像データ取得手段と、自装置に接続している他の画像処理装置から第二画像データを取得する第二画像データ取得手段と、前記第一画像データ取得手段によって取得された第一画像データと前記第二画像データ取得手段によって取得された第二画像データとを、前記台数取得手段によって取得された台数に応じて合成して合成画像データを生成する生成手段と、前記生成手段によって生成された前記合成画像データを、接続している他の画像処理装置または前記通信装置に出力する出力手段とを備える。   An image processing apparatus according to a first aspect of the present invention is used in a communication system including a communication device that transmits data via a network and a plurality of image processing devices connected in series to the communication device. An image processing apparatus capable of outputting image data of an image to be displayed at another base to the communication apparatus, and obtaining the number of other image processing apparatuses connected to the communication apparatus. Acquisition means; first image data acquisition means for acquiring first image data from an imaging means for capturing an image; and second image data for acquiring second image data from another image processing apparatus connected to the apparatus. An acquisition unit, the first image data acquired by the first image data acquisition unit and the second image data acquired by the second image data acquisition unit are transferred to the number acquisition unit. Generating means for generating composite image data by combining them according to the number obtained, and outputting the composite image data generated by the generation means to another connected image processing apparatus or the communication apparatus Output means.

第一の態様に係る画像処理装置は、複数の撮像手段によって撮像された画像の画像データを合成して合成画像データを生成する。生成した合成画像データを、他の画像処理装置または通信装置に出力することができる。画像処理装置から合成画像データを入力した通信装置は、画像データを合成する処理を行う必要がない。従って、画像処理装置は通信装置の処理負担を低下させることができ、テレビ会議中の通信が乱れる可能性を低下させることができる。   The image processing apparatus according to the first aspect generates composite image data by combining image data of images picked up by a plurality of image pickup means. The generated composite image data can be output to another image processing apparatus or communication apparatus. The communication device that has input the composite image data from the image processing device does not need to perform processing for combining the image data. Therefore, the image processing apparatus can reduce the processing load on the communication apparatus, and can reduce the possibility of communication disruption during a video conference.

前記画像処理装置は、前記通信装置に連なって接続している自装置および他の画像処理装置のうち、前記通信装置に対する自装置の接続順を取得する接続順情報取得手段と、合成画像データ上の座標における第一画像データの合成位置を示す座標情報と、前記自装置の接続順とを対応付けるテーブルを記憶手段から取得するテーブル取得手段とをさらに備えてもよい。前記生成手段は、前記テーブル取得手段によって取得されたテーブルにおいて、前記接続順情報取得手段によって取得された前記自装置の接続順に対応する座標情報が示す合成位置に、第一画像データを合成してもよい。画像処理装置は、通信装置に対する自装置の接続順に応じた適切な合成位置に第一画像データを合成することができる。通信装置は、第一画像データの合成位置を画像処理装置に指示する必要はない。従って、画像処理装置は通信装置の処理負担をさらに低下させることができる。   The image processing apparatus includes: a connection order information acquisition unit that acquires a connection order of the own apparatus with respect to the communication apparatus among the own apparatus connected to the communication apparatus and another image processing apparatus; There may be further provided table acquisition means for acquiring, from the storage means, a table that associates the coordinate information indicating the combination position of the first image data at the coordinates of the first image data and the connection order of the own apparatus. In the table acquired by the table acquisition unit, the generation unit combines the first image data at the combination position indicated by the coordinate information corresponding to the connection order of the own apparatus acquired by the connection order information acquisition unit. Also good. The image processing apparatus can synthesize the first image data at an appropriate synthesis position according to the connection order of the own apparatus with respect to the communication apparatus. The communication apparatus does not need to instruct the image processing apparatus to synthesize the first image data. Therefore, the image processing apparatus can further reduce the processing load on the communication apparatus.

前記画像処理装置は、ユーザが表示手段に表示されたテンプレートに対して操作を入力することで設定される情報であり、前記テンプレート上の座標において前記ユーザが指定した各画像処理装置の第一画像データの合成位置を示す座標情報を取得する設定情報取得手段をさらに備えてもよい。前記生成手段は、前記設定情報取得手段によって取得された座標情報が示す合成位置に、第一画像データを合成してもよい。この場合、ユーザは、各撮像手段によって撮像された画像のレイアウトを自由に決定することができる。   The image processing device is information set when a user inputs an operation to a template displayed on a display unit, and a first image of each image processing device specified by the user at coordinates on the template You may further provide the setting information acquisition means which acquires the coordinate information which shows the synthetic | combination position of data. The generating unit may combine the first image data at a combining position indicated by the coordinate information acquired by the setting information acquiring unit. In this case, the user can freely determine the layout of the image captured by each imaging unit.

前記第二画像データ取得手段は、変換符号化および量子化が行われた第二画像データを、接続している前記他の画像処理装置から取得してもよい。前記画像処理装置は、自装置が他の画像処理装置を介さずに前記通信装置に接続しているか否かを判断する判断手段と、前記判断手段によって他の画像処理装置を介さずに前記通信装置に接続されていると判断された場合に、前記生成手段によって生成された合成画像データに対して予測符号化処理を含む圧縮処理を行う圧縮処理手段をさらに備えてもよい。前記出力手段は、前記圧縮処理手段によって処理された合成画像データを前記通信装置に出力してもよい。画像処理装置は、変換符号化および量子化が行われた第二画像データを取得するため、データ量の大きい第二画像データを取得して処理負担が増加することを防止することができる。さらに、画像処理装置は、合成画像データを通信装置に出力する場合にのみ、予測符号化処理を含む圧縮処理を行う。よって、合成画像データを生成する際に第二画像データを復号化する必要が無く、効率よく処理を行うことができる。通信装置は、圧縮処理が既に行われた合成画像データを入力するため、通信装置の処理負担はさらに低下する。   The second image data acquisition unit may acquire the second image data subjected to transform coding and quantization from the other connected image processing apparatus. The image processing apparatus determines whether the own apparatus is connected to the communication apparatus without going through another image processing apparatus, and the communication means without using the other image processing apparatus by the judging means. A compression processing unit that performs a compression process including a predictive coding process on the synthesized image data generated by the generation unit when it is determined that the apparatus is connected to the apparatus may be further provided. The output means may output the composite image data processed by the compression processing means to the communication device. Since the image processing apparatus acquires the second image data that has been subjected to transform coding and quantization, it can prevent the processing load from increasing by acquiring the second image data having a large amount of data. Furthermore, the image processing apparatus performs a compression process including a predictive encoding process only when outputting the composite image data to the communication apparatus. Therefore, it is not necessary to decode the second image data when generating the composite image data, and the processing can be performed efficiently. Since the communication device inputs composite image data that has already undergone compression processing, the processing load on the communication device is further reduced.

前記画像処理装置は、前記通信装置に出力する合成画像データの解像度およびフレームレートを前記通信装置から取得する出力情報取得手段と、前記出力情報取得手段によって取得された解像度およびフレームレートを、前記通信装置に連なって接続している他の画像処理装置に通知する通知手段とをさらに備えてもよい。前記生成手段は、前記出力情報取得手段によって取得された解像度およびフレームレート、または他の画像処理装置の通知手段によって通知された解像度およびフレームレートに従って合成画像データを生成してもよい。この場合、画像処理装置は、通信装置が要求する解像度およびフレームレートを他の画像処理装置と共有し、適切な合成画像データを通信装置に出力することができる。   The image processing device includes: output information acquisition means for acquiring the resolution and frame rate of the composite image data output to the communication device from the communication device; and the resolution and frame rate acquired by the output information acquisition means for the communication Notification means for notifying other image processing apparatuses connected to the apparatus may be further provided. The generation unit may generate composite image data according to the resolution and frame rate acquired by the output information acquisition unit, or the resolution and frame rate notified by a notification unit of another image processing apparatus. In this case, the image processing apparatus can share the resolution and frame rate required by the communication apparatus with other image processing apparatuses, and can output appropriate composite image data to the communication apparatus.

本発明の第二の態様に係る画像処理方法は、ネットワークを介してデータを送信する通信装置と、前記通信装置に対して直列に接続される複数の画像処理装置とを備える通信システムにおいて使用され、他の拠点で表示させる画像の画像データを前記通信装置に出力することが可能な画像処理装置によって実行される画像処理方法であって、前記通信装置に連なって接続している他の画像処理装置の台数を取得する台数取得ステップと、画像を撮像する撮像手段から第一画像データを取得する第一画像データ取得ステップと、自装置に接続している他の画像処理装置から第二画像データを取得する第二画像データ取得ステップと、前記第一画像データ取得ステップにおいて取得された第一画像データと前記第二画像データ取得ステップにおいて取得された第二画像データとを、前記台数取得ステップにおいて取得された台数に応じて合成して合成画像データを生成する生成ステップと、前記生成ステップにおいて生成された前記合成画像データを、接続している他の画像処理装置または前記通信装置に出力する出力ステップとを備える。   An image processing method according to a second aspect of the present invention is used in a communication system including a communication device that transmits data via a network and a plurality of image processing devices connected in series to the communication device. An image processing method executed by an image processing apparatus capable of outputting image data of an image to be displayed at another base to the communication apparatus, wherein the other image processing is connected to the communication apparatus. A number acquisition step for acquiring the number of devices, a first image data acquisition step for acquiring first image data from an imaging means for capturing an image, and second image data from another image processing device connected to the device itself In the second image data acquisition step, the first image data acquired in the first image data acquisition step, and the second image data acquisition step. Connecting the acquired second image data to the generation step of generating composite image data by combining the acquired second image data according to the number of units acquired in the number acquisition step, and the composite image data generated in the generation step; Output to the other image processing apparatus or the communication apparatus.

第二の態様に係る画像処理方法によると、画像処理装置は、複数の撮像手段によって撮像された画像の画像データを合成して合成画像データを生成する。生成した合成画像データを、他の画像処理装置または通信装置に出力することができる。画像処理装置から合成画像データを入力した通信装置は、画像データを合成する処理を行う必要がない。従って、画像処理装置は通信装置の処理負担を低下させることができ、テレビ会議中の通信が乱れる可能性を低下させることができる。   According to the image processing method according to the second aspect, the image processing apparatus generates combined image data by combining image data of images captured by a plurality of imaging units. The generated composite image data can be output to another image processing apparatus or communication apparatus. The communication device that has input the composite image data from the image processing device does not need to perform processing for combining the image data. Therefore, the image processing apparatus can reduce the processing load on the communication apparatus, and can reduce the possibility of communication disruption during a video conference.

本発明の第三の態様に係る画像処理プログラムは、ネットワークを介してデータを送信する通信装置と、前記通信装置に対して直列に接続される複数の画像処理装置とを備える通信システムにおいて使用され、他の拠点で表示させる画像の画像データを前記通信装置に出力することが可能な画像処理装置で用いられる画像処理プログラムであって、前記通信装置に連なって接続している他の画像処理装置の台数を取得する台数取得ステップと、画像を撮像する撮像手段から第一画像データを取得する第一画像データ取得ステップと、自装置に接続している他の画像処理装置から第二画像データを取得する第二画像データ取得ステップと、前記第一画像データ取得ステップにおいて取得された第一画像データと前記第二画像データ取得ステップにおいて取得された第二画像データとを、前記台数取得ステップにおいて取得された台数に応じて合成して合成画像データを生成する生成ステップと、前記生成ステップにおいて生成された前記合成画像データを、接続している他の画像処理装置または前記通信装置に出力する出力ステップとを前記画像処理装置のコントローラに実行させるための指示を含む。   An image processing program according to a third aspect of the present invention is used in a communication system including a communication device that transmits data via a network and a plurality of image processing devices connected in series to the communication device. An image processing program used in an image processing apparatus capable of outputting image data of an image to be displayed at another base to the communication apparatus, and the other image processing apparatus connected to the communication apparatus A number acquisition step for acquiring the number of images, a first image data acquisition step for acquiring first image data from an imaging means for capturing an image, and second image data from another image processing device connected to the device itself Second image data acquisition step to be acquired, first image data acquired in the first image data acquisition step, and second image data acquisition step The second image data acquired in step S2 is combined with the number acquired in the number acquisition step to generate combined image data, and the combined image data generated in the generation step is An instruction for causing the controller of the image processing apparatus to execute an output step of outputting to another connected image processing apparatus or the communication apparatus.

第三の態様に係る画像処理プログラムによると、画像処理装置は、複数の撮像手段によって撮像された画像の画像データを合成して合成画像データを生成する。生成した合成画像データを、他の画像処理装置または通信装置に出力することができる。画像処理装置から合成画像データを入力した通信装置は、画像データを合成する処理を行う必要がない。従って、画像処理装置は通信装置の処理負担を低下させることができ、テレビ会議中の通信が乱れる可能性を低下させることができる。   According to the image processing program according to the third aspect, the image processing apparatus generates composite image data by combining image data of images captured by a plurality of imaging units. The generated composite image data can be output to another image processing apparatus or communication apparatus. The communication device that has input the composite image data from the image processing device does not need to perform processing for combining the image data. Therefore, the image processing apparatus can reduce the processing load on the communication apparatus, and can reduce the possibility of communication disruption during a video conference.

通信システム100のシステム構成を示す図である。1 is a diagram showing a system configuration of a communication system 100. FIG. テレビ会議端末1およびPC3の電気的構成を示すブロック図である。It is a block diagram which shows the electrical structure of the video conference terminal 1 and PC3. テレビ会議中に表示装置46に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display apparatus 46 during a video conference. PC3が実行するPC会議処理のフローチャートである。It is a flowchart of the PC conference process which PC3 performs. 画像配置入力用テンプレート51を表示している表示装置46の一例を示す図である。It is a figure which shows an example of the display apparatus 46 which is displaying the template 51 for image arrangement input. レイアウト情報のデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating the data structure of layout information. テレビ会議端末1が実行する端末会議処理のフローチャートである。It is a flowchart of the terminal conference process which the video conference terminal 1 performs. 端末会議処理中に実行される最上位端末処理のフローチャートである。It is a flowchart of the highest terminal process performed during a terminal conference process. テレビ会議端末1のフラッシュメモリ13に記憶されている合成位置テーブルのデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating the data structure of the synthetic | combination position table memorize | stored in the flash memory 13 of the video conference terminal 1. FIG. 端末会議処理中に実行される下位端末処理のフローチャートである。It is a flowchart of the low-order terminal process performed during a terminal conference process.

以下、本発明の画像処理装置を具現化した一実施の形態であるテレビ会議端末1について、図面を参照して説明する。参照する図面は、本発明が採用し得る技術的特徴を説明するために用いられるものである。図面に記載されている装置の構成、各種処理のフローチャート等は、それのみに限定する趣旨ではなく、単なる説明例である。   Hereinafter, a video conference terminal 1, which is an embodiment of an image processing apparatus according to the present invention, will be described with reference to the drawings. The drawings to be referred to are used for explaining technical features that can be adopted by the present invention. The configuration of the apparatus, the flowcharts of various processes, and the like described in the drawings are not intended to be limited to these, but are merely illustrative examples.

図1を参照して、テレビ会議端末1を備えた通信システム100の概略構成について説明する。通信システム100は、ネットワーク8を介してデータを送受信することが可能な複数の通信装置を備える。本実施の形態では、通信装置としてパーソナルコンピュータ(以下、「PC」という。)3が用いられているが、データの送受信が可能なテレビ会議専用の装置等を通信装置として用いてもよい。   A schematic configuration of a communication system 100 including a video conference terminal 1 will be described with reference to FIG. The communication system 100 includes a plurality of communication devices that can transmit and receive data via the network 8. In this embodiment, a personal computer (hereinafter referred to as “PC”) 3 is used as a communication device, but a device dedicated to video conferencing that can transmit and receive data may be used as a communication device.

PC3にはテレビ会議端末1を接続することができる。テレビ会議端末1は、設置された拠点の音声をマイク26(図2参照)から入力し、且つ画像をカメラ28(図2参照)から入力する。入力した音声および画像のデータをPC3に出力する。また、テレビ会議端末1は、PC3から入力した音声のデータに基づいて、他拠点の音声をスピーカ27(図2参照)から発生させることができる。   The video conference terminal 1 can be connected to the PC 3. The video conference terminal 1 inputs the voice of the installed base from the microphone 26 (see FIG. 2) and inputs the image from the camera 28 (see FIG. 2). The input voice and image data is output to the PC 3. Further, the video conference terminal 1 can generate the sound of another base from the speaker 27 (see FIG. 2) based on the sound data input from the PC 3.

PC3には複数のテレビ会議端末1を接続することもできる。従って、図1に示すように、複数のユーザが1つの拠点に集合してテレビ会議を実行する場合、各ユーザの近傍に複数のテレビ会議端末1の各々を配置することができる。その結果、各ユーザの鮮明な画像が他の拠点で表示され、且つ各ユーザの発話音声が正確に他の拠点で出力される。   A plurality of video conference terminals 1 can be connected to the PC 3. Therefore, as shown in FIG. 1, when a plurality of users gather at one base and perform a video conference, each of the plurality of video conference terminals 1 can be arranged in the vicinity of each user. As a result, a clear image of each user is displayed at the other base, and the speech voice of each user is output accurately at the other base.

本実施の形態では、1つのPC3に複数のテレビ会議端末1を接続する場合、複数のテレビ会議端末1を直列にPC3に接続する。図1に示す例では、PC3にテレビ会議端末1Aが接続される。テレビ会議端末1Aにはテレビ会議端末1Bが接続され、さらにテレビ会議端末1Bにはテレビ会議端末1Cが接続される。従って、テレビ会議端末1Cが自装置のマイク26およびカメラ28から入力したデータは、テレビ会議端末1Bおよびテレビ会議端末1Aを介してPC3に出力される。同様に、テレビ会議端末1Bが入力した音声および画像のデータは、テレビ会議端末1Aを介してPC3に出力される。PC3は、複数のテレビ会議端末1A〜1Cから入力したデータを、ネットワーク8を介して他の拠点のPC3に送信する。その結果、ユーザA,B,Cの発話音声および画像が他の拠点で出力される。   In the present embodiment, when a plurality of video conference terminals 1 are connected to one PC 3, the plurality of video conference terminals 1 are connected to the PC 3 in series. In the example shown in FIG. 1, a video conference terminal 1 </ b> A is connected to the PC 3. A video conference terminal 1B is connected to the video conference terminal 1A, and a video conference terminal 1C is further connected to the video conference terminal 1B. Accordingly, data input from the video conference terminal 1C from its own microphone 26 and camera 28 is output to the PC 3 via the video conference terminal 1B and the video conference terminal 1A. Similarly, audio and image data input by the video conference terminal 1B is output to the PC 3 via the video conference terminal 1A. The PC 3 transmits data input from the plurality of video conference terminals 1 </ b> A to 1 </ b> C to the PC 3 at another base via the network 8. As a result, the voices and images of users A, B, and C are output at other locations.

前述したように、複数のテレビ会議端末1を1つのPC3に接続することで、複数のユーザの各々の正確な発話音声および鮮明な画像が他の拠点で出力される。一方で、従来の技術では、PC3は、複数のテレビ会議端末1から入力した複数の画像データを合成する必要があった。その結果、PC3の処理負担が増大していた。PC3の処理負担が増大すると、データ通信、音声の出力、画像の表示等が乱れ、テレビ会議を円滑に実行できない可能性がある。本実施の形態のテレビ会議端末1は、PC3の処理負担を低下させて円滑にテレビ会議を実行することができる。   As described above, by connecting a plurality of video conference terminals 1 to one PC 3, accurate speech sounds and clear images of each of a plurality of users are output at other bases. On the other hand, in the conventional technique, the PC 3 has to synthesize a plurality of image data input from the plurality of video conference terminals 1. As a result, the processing burden on the PC 3 has increased. When the processing load on the PC 3 increases, data communication, audio output, image display, and the like may be disturbed, and the video conference may not be performed smoothly. The video conference terminal 1 according to the present embodiment can smoothly execute a video conference by reducing the processing load on the PC 3.

なお、以下の説明では、PC3に直列に接続されている複数のテレビ会議端末1のうち、PC3に近い方の端末を「上位」、PC3から遠い方の端末を「下位」とする。他のテレビ会議端末1を介さずにPC3に直接接続しているテレビ会議端末1(例えば、図1のテレビ会議端末1A)を「最上位端末」という。PC3から最も遠いテレビ会議端末1(例えば、図1のテレビ会議端末1C)を「最下位端末」という。上位および下位の2つのテレビ会議端末1に接続しているテレビ会議端末1(例えば、図1のテレビ会議端末1B)を「中間端末」という。   In the following description, among the plurality of video conference terminals 1 connected in series to the PC 3, a terminal closer to the PC 3 is referred to as “upper” and a terminal farther from the PC 3 is referred to as “lower”. A video conference terminal 1 (for example, the video conference terminal 1A in FIG. 1) directly connected to the PC 3 without passing through another video conference terminal 1 is referred to as a “top-level terminal”. The video conference terminal 1 farthest from the PC 3 (for example, the video conference terminal 1C in FIG. 1) is referred to as a “lowest terminal”. The video conference terminal 1 (for example, the video conference terminal 1B in FIG. 1) connected to the upper and lower two video conference terminals 1 is referred to as an “intermediate terminal”.

図2を参照して、テレビ会議端末1およびPC3の電気的構成について説明する。テレビ会議端末1は、テレビ会議端末1の制御を司るCPU10を備える。CPU10には、ROM11、RAM12、フラッシュメモリ13、および入出力インターフェース14が、バス19を介して接続されている。   The electrical configuration of the video conference terminal 1 and the PC 3 will be described with reference to FIG. The video conference terminal 1 includes a CPU 10 that controls the video conference terminal 1. A ROM 11, a RAM 12, a flash memory 13, and an input / output interface 14 are connected to the CPU 10 via a bus 19.

ROM11は、テレビ会議端末1を動作させるためのプログラムおよび初期値等を記憶している。後述する端末会議処理(図7等参照)を実行するためのプログラムはROM11に記憶されている。RAM12は、制御プログラムで使用される各種の情報を一時的に記憶する。フラッシュメモリ13は不揮発性の記憶装置である。後述する合成位置テーブル(図9参照)はフラッシュメモリ13に記憶されている。フラッシュメモリ13の代わりに、EEPROMまたはメモリカード等の記憶装置を用いてもよい。   The ROM 11 stores a program for operating the video conference terminal 1, an initial value, and the like. A program for executing a terminal conference process (see FIG. 7 and the like) described later is stored in the ROM 11. The RAM 12 temporarily stores various information used in the control program. The flash memory 13 is a nonvolatile storage device. A composite position table (see FIG. 9) to be described later is stored in the flash memory 13. Instead of the flash memory 13, a storage device such as an EEPROM or a memory card may be used.

入出力インターフェース14には、USBデバイスI/F21、音声入力処理部22、音声出力処理部23、映像入力処理部24、USBホストI/F25、および操作部29が接続されている。USBデバイスI/F21は、PC3のUSBホストI/F43、または他のテレビ会議端末1のUSBホストI/F25に接続し、接続したデバイスに自拠点の音声および画像のデータを出力する。テレビ会議端末1がUSBデバイスI/F21によって他の装置に接続された場合、接続した他の装置がUSB通信プロトコルを主導する。一方、USBホストI/F25は、下位のテレビ会議端末1のUSBデバイスI/F21に接続し、接続した下位のテレビ会議端末1から自拠点の音声および画像のデータを入力する。USBホストI/F25によって他の装置に接続された場合には、自装置がUSB通信プロトコルを主導する。なお、USBデバイスI/F21およびUSBホストI/F25によって各種信号を他のデバイスとの間で入出力できることは言うまでもない。音声入力処理部22は、マイク26からの音声データの入力を処理する。音声出力処理部23は、スピーカ27の動作を処理する。映像入力処理部24は、カメラ28からの画像データの入力を処理する。操作部29は電源ボタン、音量調節ボタン、マイクミュートボタン等からなり、ユーザによる各種操作入力を受け付ける。   A USB device I / F 21, an audio input processing unit 22, an audio output processing unit 23, a video input processing unit 24, a USB host I / F 25, and an operation unit 29 are connected to the input / output interface 14. The USB device I / F 21 is connected to the USB host I / F 43 of the PC 3 or the USB host I / F 25 of another video conference terminal 1, and outputs the voice and image data of the local site to the connected device. When the video conference terminal 1 is connected to another device by the USB device I / F 21, the other connected device takes the lead in the USB communication protocol. On the other hand, the USB host I / F 25 is connected to the USB device I / F 21 of the lower video conference terminal 1 and inputs the voice and image data of its own site from the connected lower video conference terminal 1. When connected to another device by the USB host I / F 25, the own device takes the lead in the USB communication protocol. Needless to say, various signals can be input / output to / from other devices by the USB device I / F 21 and the USB host I / F 25. The voice input processing unit 22 processes voice data input from the microphone 26. The audio output processing unit 23 processes the operation of the speaker 27. The video input processing unit 24 processes input of image data from the camera 28. The operation unit 29 includes a power button, a volume control button, a microphone mute button, and the like, and accepts various operation inputs from the user.

PC3は、PC3の制御を司るCPU30を備える。CPU30には、ROM31、RAM32、ハードディスクドライブ(以下、「HDD」という。)33、および入出力インターフェース34が、バス39を介して接続されている。ROM31は、PC3を動作させるためのプログラムおよび初期値等を記憶している。RAM12は各種情報を一時的に記憶する。HDD13は不揮発性の記憶装置である。   The PC 3 includes a CPU 30 that controls the PC 3. A ROM 31, a RAM 32, a hard disk drive (hereinafter referred to as “HDD”) 33, and an input / output interface 34 are connected to the CPU 30 via a bus 39. The ROM 31 stores a program for operating the PC 3, initial values, and the like. The RAM 12 temporarily stores various information. The HDD 13 is a non-volatile storage device.

入出力インターフェース34には、映像出力処理部41、外部通信I/F42、USBホストI/F43、および操作部47が接続されている。映像出力処理部41は、映像を表示する表示装置46の動作を処理する。外部通信I/F42は、PC3をネットワーク8に接続する。USBホストI/F43は、USBケーブルを介してPC3をテレビ会議端末1(最上位端末)に接続する。操作部47はキーボード等からなり、各種操作入力を受け付ける。   A video output processing unit 41, an external communication I / F 42, a USB host I / F 43, and an operation unit 47 are connected to the input / output interface 34. The video output processing unit 41 processes the operation of the display device 46 that displays video. The external communication I / F 42 connects the PC 3 to the network 8. The USB host I / F 43 connects the PC 3 to the video conference terminal 1 (top-level terminal) via a USB cable. The operation unit 47 includes a keyboard and receives various operation inputs.

図3を参照して、通信システム100でテレビ会議が実行されている間にPC3の表示装置46に表示される画像の一例について説明する。図3に示す例では、拠点Xに3人のユーザA,B,Cが集まり、且つ拠点Yには1人のユーザDがいる。拠点XのPC3には3つのテレビ会議端末1が接続されており、各テレビ会議端末1が3人のユーザA,B,Cの各々を撮像する。拠点XのPC3は、3つのテレビ会議端末1が撮像した3つの画像が合成された合成画像48を表示装置46に表示する。さらに、拠点YのPC3から受信したユーザDの画像49を表示装置46に表示する。拠点XのPC3は、合成画像48の画像データを拠点YのPC3に送信する。従って、図3に示す画像と同様の画像が、拠点YのPC3の表示装置46にも表示される。なお、PC3は、図3に例示する画像をプロジェクタに投影させてテレビ会議を実行してもよいし、PC3に接続された他の表示装置に表示させてもよい。   With reference to FIG. 3, an example of an image displayed on the display device 46 of the PC 3 while the video conference is executed in the communication system 100 will be described. In the example shown in FIG. 3, three users A, B, and C gather at the base X, and one user D exists at the base Y. Three video conference terminals 1 are connected to the PC 3 at the base X, and each video conference terminal 1 images each of the three users A, B, and C. The PC 3 at the site X displays on the display device 46 a composite image 48 in which the three images captured by the three video conference terminals 1 are combined. Further, the image 49 of the user D received from the PC 3 at the site Y is displayed on the display device 46. The PC 3 at the site X transmits the image data of the composite image 48 to the PC 3 at the site Y. Therefore, an image similar to the image shown in FIG. 3 is also displayed on the display device 46 of the PC 3 at the site Y. Note that the PC 3 may project the image illustrated in FIG. 3 on a projector to execute a video conference, or may display the image on another display device connected to the PC 3.

本実施の形態に係るテレビ会議端末1は、複数のテレビ会議端末1が撮像した複数の画像を合成して合成画像データを生成し、生成した合成画像データをPC3に出力することができる。従って、テレビ会議端末1はPC3の処理負担を低下させることができる。また、複数のテレビ会議端末1は、各テレビ会議端末1が撮像した画像の合成画像データにおける合成位置を示す座標情報を共有し、適切な位置に画像を合成することができる。さらに、テレビ会議端末1は、PC3から要求された解像度およびフレームレートに応じた適切な合成画像データをPC3に出力することができる。以下、処理の詳細について説明する。   The video conference terminal 1 according to the present embodiment can generate a composite image data by combining a plurality of images captured by the plurality of video conference terminals 1, and can output the generated composite image data to the PC 3. Therefore, the video conference terminal 1 can reduce the processing load on the PC 3. In addition, the plurality of video conference terminals 1 can share coordinate information indicating the synthesis position in the synthesized image data of the image captured by each video conference terminal 1 and synthesize the images at appropriate positions. Furthermore, the video conference terminal 1 can output suitable composite image data corresponding to the resolution and frame rate requested from the PC 3 to the PC 3. Details of the processing will be described below.

図4から図6を参照して、PC3が実行するPC会議処理について説明する。PC3のHDD33には、テレビ会議を実行するためのアプリケーションプログラムがインストールされている。PC3のCPU30は、アプリケーションを立ち上げる指示を操作部47から入力すると、図4に示すPC会議処理を実行する。   The PC conference process executed by the PC 3 will be described with reference to FIGS. An application program for executing a video conference is installed in the HDD 33 of the PC 3. When the CPU 30 of the PC 3 inputs an instruction for starting an application from the operation unit 47, the PC conference process shown in FIG. 4 is executed.

図4に示すように、PC会議処理が開始されると、接続している最上位端末に台数調査コマンドが出力される(S1)。台数調査コマンドとは、PC3に連なって接続しているテレビ会議端末1の台数を調査する指示を行うためのコマンドである。詳細は後述するが、テレビ会議端末1は、台数調査コマンドをPC3から入力すると、テレビ会議端末1の台数を調査してPC3に通知する。PC3のCPU10は、最上位端末から台数を取得してRAM32に記憶する(S2)。   As shown in FIG. 4, when the PC conference process is started, a number survey command is output to the connected highest terminal (S1). The number survey command is a command for instructing the number of video conference terminals 1 connected to the PC 3 to be surveyed. Although details will be described later, when the video conference terminal 1 inputs a number survey command from the PC 3, the number of the video conference terminals 1 is surveyed and notified to the PC 3. The CPU 10 of the PC 3 acquires the number from the highest terminal and stores it in the RAM 32 (S2).

次いで、レイアウト指定コマンドが操作部47に入力されたか否かが判断される(S3)。レイアウト指定コマンドは、合成画像のレイアウトをユーザ自身が指定する場合にユーザによって入力される。レイアウト指定コマンドが入力されていなければ(S3:NO)、デフォルトのレイアウトを用いて会議を開始させる指示が入力されたか否かが判断される(S4)。入力されていなければ(S4:NO)、処理はS3の判断へ戻る。   Next, it is determined whether or not a layout designation command has been input to the operation unit 47 (S3). The layout designation command is input by the user when the user himself designates the layout of the composite image. If the layout designation command has not been input (S3: NO), it is determined whether or not an instruction to start the conference using the default layout has been input (S4). If not input (S4: NO), the process returns to the determination of S3.

レイアウト指定コマンドが入力された場合(S3:YES)、画像配置入力用テンプレートが起動されて表示装置46に表示される(S6)。図5に、画像配置入力用テンプレート51を表示した表示装置46の一例を示す。画像配置入力用テンプレートは、合成画像のレイアウトの指定をユーザから受け付けるためのテンプレートである。S6では、S2で取得された台数、およびテレビ会議で採用する画像の解像度に応じたテンプレートが起動される。図5に例示する画像配置入力用テンプレート51は、テレビ会議端末1の台数が3台であり、且つ採用する解像度がVGA(640×480)である場合のテンプレートである。この場合、最上位端末の撮像画像の位置を示す「画像1の位置」52、中間端末の撮像画像の位置を示す「画像2の位置」53、最下位端末の撮像画像の位置を示す「画像3の位置」54が表示される。さらに、左上端を原点とした座標の数値が表示される。ユーザは、表示装置46に表示されるポインタ(図示せず)を操作部47によって操作することで、各画像の位置および大きさを指定する。指定したレイアウトを確定させる場合には、確定ボタン57を操作する。なお、斜線部分55は撮像画像が表示されないブランク部分である。   When the layout designation command is input (S3: YES), the image layout input template is activated and displayed on the display device 46 (S6). FIG. 5 shows an example of the display device 46 that displays the image layout input template 51. The image layout input template is a template for accepting designation of the layout of the composite image from the user. In S6, a template corresponding to the number acquired in S2 and the resolution of the image adopted in the video conference is activated. The image layout input template 51 illustrated in FIG. 5 is a template when the number of the video conference terminals 1 is three and the adopted resolution is VGA (640 × 480). In this case, “position of image 1” 52 indicating the position of the captured image of the highest terminal, “position of image 2” 53 indicating the position of the captured image of the intermediate terminal, and “image” indicating the position of the captured image of the lowest terminal. 3 position "54 is displayed. Furthermore, the numerical value of the coordinates with the upper left corner as the origin is displayed. The user designates the position and size of each image by operating a pointer (not shown) displayed on the display device 46 with the operation unit 47. When confirming the designated layout, the confirm button 57 is operated. The hatched portion 55 is a blank portion where a captured image is not displayed.

確定ボタン57が操作されるまで(S7:NO)、画像配置入力用テンプレートは継続して起動される。確定ボタン57が操作されてレイアウトの指定が完了すると(S7:YES)、レイアウト情報が設定されて最上位端末に出力される(S8)。図6に示すように、レイアウト情報は、各テレビ会議端末1が撮像した各々の画像の合成画像データ上の合成位置を示す。具体的には、合成画像データ上の座標における各々の画像の合成位置を示す座標値が、レイアウト情報として設定されて出力される。   The image layout input template is continuously activated until the confirmation button 57 is operated (S7: NO). When the confirmation button 57 is operated and the designation of the layout is completed (S7: YES), layout information is set and output to the highest terminal (S8). As shown in FIG. 6, the layout information indicates a composite position on the composite image data of each image captured by each video conference terminal 1. Specifically, a coordinate value indicating a composite position of each image at coordinates on the composite image data is set and output as layout information.

レイアウト情報の出力(S8)が完了した場合、またはデフォルトのレイアウトを用いて会議を開始させる指示が入力された場合には(S4:YES)、会議開始指示が最上位端末に出力される(S10)。テレビ会議で採用する画像の解像度およびフレームレートが最上位端末に出力される(S11)。PC会議処理は終了する。なお、PC3のCPU30は、PC会議処理を終了すると、画像および音声のデータを他のPC3との間で送受信する処理を開始する。この処理は一般的な処理であるため、説明を省略する。   When the output of layout information (S8) is completed, or when an instruction to start a conference using the default layout is input (S4: YES), the conference start instruction is output to the highest terminal (S10). ). The resolution and frame rate of the image used in the video conference are output to the highest terminal (S11). The PC conference process ends. In addition, CPU30 of PC3 will start the process which transmits / receives the image and audio | speech data between other PC3, if PC meeting process is complete | finished. Since this process is a general process, description thereof is omitted.

図7から図10を参照して、テレビ会議端末1が実行する端末会議処理について説明する。テレビ会議端末1のROM11には、テレビ会議中にPC3に画像データを出力するための画像処理プログラムが記憶されている。テレビ会議端末1のCPU10は、電源が投入されることを契機として、図7に示す端末会議処理を実行する。   A terminal conference process executed by the video conference terminal 1 will be described with reference to FIGS. The ROM 11 of the video conference terminal 1 stores an image processing program for outputting image data to the PC 3 during the video conference. The CPU 10 of the video conference terminal 1 executes the terminal conference process shown in FIG. 7 when the power is turned on.

図7に示すように、端末会議処理が開始されると、PC3から台数調査コマンドが入力されたか否かが判断される(S21)。入力されていなければ(S21:NO)、上位に接続されているテレビ会議端末1から台数調査コマンドが入力されたか否かが判断される(S22)。入力されていなければ(S22:NO)、S21およびS22の判断が繰り返される。   As shown in FIG. 7, when the terminal conference process is started, it is determined whether or not a number survey command is input from the PC 3 (S21). If it has not been input (S21: NO), it is determined whether or not a number survey command has been input from the video conference terminal 1 connected to the host (S22). If not input (S22: NO), the determinations of S21 and S22 are repeated.

自装置が最上位端末であり、他のテレビ会議端末1を介さずにPC3に接続されている場合には、テレビ会議の開始時にPC3から台数調査コマンドが出力されてくる。従って、PC3から台数調査コマンドを直接入力した場合(S21:YES)、CPU10は、自装置を最上位端末として認識し、自装置の接続番号を「1」に設定する(S23)。接続番号とは、PC3に連なって接続している複数のテレビ会議端末1のうち、PC3に対する自装置の接続順を示す番号である。詳細は後述するが、テレビ会議端末1は、自装置のカメラ28によって撮像した画像のデータの合成位置を、接続番号に従って認識する。本実施の形態では、上位のテレビ会議端末1から順に接続番号が増加するように接続番号が設定される。具体的には、PC3に直接接続されている場合には接続順が「1」とされ、接続番号が「1」とされる。1つのテレビ会議端末1(最上位端末)を介してPC3に接続されている場合には接続順が「2」とされ、接続番号が「2」とされる。また、上位に接続されているテレビ会議端末1から台数調査コマンドを入力した場合には(S22:YES)、処理はそのままS24へ移行する。   When the own apparatus is the highest terminal and is connected to the PC 3 without passing through the other video conference terminals 1, a number survey command is output from the PC 3 at the start of the video conference. Therefore, when the number survey command is directly input from the PC 3 (S21: YES), the CPU 10 recognizes the own device as the highest terminal and sets the connection number of the own device to “1” (S23). The connection number is a number indicating the connection order of the own apparatus with respect to the PC 3 among the plurality of video conference terminals 1 connected in series with the PC 3. Although the details will be described later, the video conference terminal 1 recognizes the combined position of the data of the image captured by the camera 28 of its own device according to the connection number. In the present embodiment, the connection numbers are set so that the connection numbers increase in order from the higher-level video conference terminal 1. Specifically, in the case of direct connection to the PC 3, the connection order is “1” and the connection number is “1”. When connected to the PC 3 via one video conference terminal 1 (the highest terminal), the connection order is “2” and the connection number is “2”. When the number survey command is input from the video conference terminal 1 connected to the host (S22: YES), the process proceeds to S24 as it is.

台数調査コマンドが入力されると、下位に接続されているテレビ会議端末1へ台数調査コマンドが出力される(S24)。出力した台数調査コマンドに対して、下位端末数の回答があったか否かが判断される(S26)。回答がない場合(S26:NO)、自装置の下位にはテレビ会議端末1が接続されていない。従って、自装置が最下位端末として認識される(S27)。さらに、上位のテレビ会議端末1に対し、下位端末数が最下位端末の1つのみであることが出力される(S28)。次いで、上位のテレビ会議端末1から合計台数が入力されるまで待機される(S33:NO)。詳細は後述するが、合計台数は、最上位端末から下位のテレビ会議端末1へ向けて順に入力される。合計台数が入力されると(S33:YES)、自装置よりも下位の端末数を合計台数から引いた値が、自装置の接続番号に設定される(S34)。つまり、自装置が最下位端末であれば、自装置よりも下位の端末数は「0」であるため、合計台数と自装置の接続番号は等しくなる。次いで、自装置が最下位端末であるか否かが判断される(S39)。最下位端末であれば(S39:YES)、処理はそのままS41の判断へ移行する。   When the number survey command is input, the number survey command is output to the video conference terminal 1 connected to the lower level (S24). It is determined whether or not there is a reply of the number of lower terminals in response to the output number survey command (S26). When there is no answer (S26: NO), the video conference terminal 1 is not connected to the lower level of the own device. Accordingly, the own apparatus is recognized as the lowest terminal (S27). Further, it is output to the upper video conference terminal 1 that the number of lower terminals is only one of the lowest terminals (S28). Next, the process waits until the total number is input from the higher-level video conference terminal 1 (S33: NO). Although details will be described later, the total number is sequentially input from the highest terminal to the lower video conference terminal 1. When the total number is input (S33: YES), a value obtained by subtracting the number of terminals lower than the own device from the total number is set as the connection number of the own device (S34). That is, if the own device is the lowest terminal, the number of terminals lower than the own device is “0”, so the total number is equal to the connection number of the own device. Next, it is determined whether or not the own device is the lowest terminal (S39). If it is the lowest terminal (S39: YES), the process directly proceeds to the determination of S41.

台数調査コマンドに対する回答があった場合(S26:YES)、下位のテレビ会議端末1から入力された下位端末数が認識され、RAM12に記憶される(S30)。次いで、自装置が最上位端末であるか否かが判断される(S31)。自装置が最上位端末でなければ(S31:NO)、下位のテレビ会議端末1から入力された下位端末数に「1」を足した数が、上位のテレビ会議端末1における下位端末数として、上位のテレビ会議端末1に対して出力される(S32)。上記のテレビ会議端末1から合計台数が入力されると(S33:YES)、合計台数から自装置の下位端末数を引いた値が自装置の接続番号に設定される(S34)。自装置が最下位端末でなければ(S39:NO)、下位に接続されているテレビ会議端末1に、上位のテレビ会議端末1から入力された合計台数がそのまま出力(転送)されて(S40)、処理はS41の判断へ移行する。   When there is an answer to the number survey command (S26: YES), the number of lower terminals input from the lower video conference terminal 1 is recognized and stored in the RAM 12 (S30). Next, it is determined whether or not the device is the highest terminal (S31). If the own apparatus is not the highest terminal (S31: NO), the number obtained by adding “1” to the number of lower terminals input from the lower video conference terminal 1 is the number of lower terminals in the higher video conference terminal 1. The video is output to the upper video conference terminal 1 (S32). When the total number is input from the video conference terminal 1 (S33: YES), a value obtained by subtracting the number of lower terminals of the own device from the total number is set as the connection number of the own device (S34). If the own apparatus is not the lowest terminal (S39: NO), the total number input from the upper video conference terminal 1 is directly output (transferred) to the lower video conference terminal 1 (S40). The process proceeds to the determination in S41.

自装置が最上位端末である場合には(S31:YES)、下位のテレビ会議端末1から入力された下位端末数に「1」を足した数が合計台数として認識される(S36)。自装置に接続しているPC3および下位のテレビ会議端末1に対し、認識した合計台数が出力される(S37)。前述したように、合計台数は最下位端末まで順に通知されるため、PC3に連なって接続しているテレビ会議端末1の全てが合計台数を認識できる。処理はS41の判断へ移行する。   When the own apparatus is the highest terminal (S31: YES), the number obtained by adding “1” to the number of lower terminals input from the lower video conference terminal 1 is recognized as the total number (S36). The recognized total number is output to the PC 3 and the lower video conference terminal 1 connected to the own apparatus (S37). As described above, since the total number is notified to the lowest terminal in order, all of the video conference terminals 1 connected to the PC 3 can recognize the total number. The process proceeds to the determination in S41.

次いで、PC3または上位のテレビ会議端末1から会議開始指示を入力したか否かが判断され(S41)、入力するまで待機状態となる(S41:NO)。会議開始指示を入力すると(S41:YES)、自装置が最上位端末であるか否かが判断される(S42)。最上位端末であれば(S42:YES)、最上位端末処理が行われて(S43)、処理は終了する。自装置が最上位端末でなければ(S42:NO)、下位端末処理が行われて(S44)、処理は終了する。   Next, it is determined whether or not a conference start instruction is input from the PC 3 or the higher-level video conference terminal 1 (S41), and a standby state is entered until it is input (S41: NO). When a conference start instruction is input (S41: YES), it is determined whether or not the device is the highest terminal (S42). If it is the highest terminal (S42: YES), the highest terminal process is performed (S43), and the process ends. If the own apparatus is not the highest terminal (S42: NO), the lower terminal process is performed (S44), and the process ends.

図8を参照して、最上位端末処理について説明する。最上位端末処理が開始されると、テレビ会議で採用する解像度およびフレームレートがPC3から入力される(S51)。解像度およびフレームレートは、会議開始指示と共にPC3によって出力される(図4、S10およびS11参照)。入力された解像度、フレームレート、および会議開始指示は、下位に接続しているテレビ会議端末1に転送される(S52)。   With reference to FIG. 8, the top terminal processing will be described. When the highest terminal process is started, the resolution and frame rate employed in the video conference are input from the PC 3 (S51). The resolution and the frame rate are output by the PC 3 together with the conference start instruction (see FIG. 4, S10 and S11). The input resolution, frame rate, and conference start instruction are transferred to the video conference terminal 1 connected to the lower level (S52).

PC3からレイアウト情報(図6参照)が入力されたか否かが判断される(S53)。前述したように、ユーザが画像配置入力用テンプレートを用いて画像の配置を指定すると、PC3は、各々の画像の合成画像データ上の合成位置を示すレイアウト情報を最上位端末に出力する。レイアウト情報が入力された場合(S53:YES)、入力されたレイアウト情報が下位のテレビ会議端末1に転送される(S54)。レイアウト情報が示す合成位置のうち、最上位端末の接続番号「1」に対応する合成位置が、自装置が撮像した画像の合成位置として認識される(S55)。   It is determined whether layout information (see FIG. 6) has been input from the PC 3 (S53). As described above, when the user designates the image layout using the image layout input template, the PC 3 outputs layout information indicating the composite position of each image on the composite image data to the highest terminal. When layout information is input (S53: YES), the input layout information is transferred to the lower video conference terminal 1 (S54). Among the composite positions indicated by the layout information, the composite position corresponding to the connection number “1” of the highest terminal is recognized as the composite position of the image captured by the own device (S55).

レイアウト情報が入力されていない場合(S53:NO)、ユーザはデフォルトのレイアウトを用いて会議を開始させる指示を入力している。この場合、フラッシュメモリ13に記憶されている合成位置テーブルが取得される(S56)。図9に示すように、合成位置テーブルでは、合成画像データ上の座標における各画像の合成位置を示す座標情報と、テレビ会議端末1の接続順(接続番号)とが対応付けられている。本実施の形態では、解像度がVGAである場合のテーブルと、解像度がXGAである場合のテーブルとが設けられている。PC3に接続されているテレビ会議端末1の合計台数毎に、各端末の合成位置を示す座標情報と接続順とが対応付けられている。テレビ会議端末1のCPU10は、合計台数、解像度、および自装置の接続順に対応する座標情報を取得する。取得した座標情報が示す合成位置を、自装置が撮像した画像のデータを合成する合成位置として認識する(S57)。   When the layout information has not been input (S53: NO), the user has input an instruction to start the conference using the default layout. In this case, the composite position table stored in the flash memory 13 is acquired (S56). As shown in FIG. 9, in the composite position table, coordinate information indicating the composite position of each image at coordinates on the composite image data is associated with the connection order (connection number) of the video conference terminal 1. In the present embodiment, there are provided a table when the resolution is VGA and a table when the resolution is XGA. For each of the total number of video conference terminals 1 connected to the PC 3, coordinate information indicating the combined position of each terminal is associated with the connection order. The CPU 10 of the video conference terminal 1 acquires coordinate information corresponding to the total number, resolution, and connection order of the own device. The synthesis position indicated by the acquired coordinate information is recognized as a synthesis position for synthesizing image data captured by the own device (S57).

次いで、自装置のカメラ28が撮像した画像のデータ(自装置画像データ)が取得される(S60)。S60では、S51でPC3から入力された解像度の自装置画像データが取得される。さらに、S51で入力されたフレームレートに従って自装置画像データが取得される。次いで、下位に接続しているテレビ会議端末1から画像データ(他装置画像データ)が取得される(S61)。なお、S61で取得される他装置画像データは、下位に接続しているテレビ会議端末1が1つのみであれば、下位のテレビ会議端末1が撮像した画像の画像データとなる。一方、下位に接続しているテレビ会議端末1が複数であれば、下位の複数のテレビ会議端末1によって撮像された複数の画像の合成画像となる。また、詳細は後述するが、他装置画像データの解像度およびフレームレートは、S60で取得される自装置画像データの解像度およびフレームレートと同一となっている。さらに、他装置画像データには、DCTおよび量子化が既に行われている。次いで、他装置画像データのうち、S55またはS57で認識した位置に、自装置画像データが合成される(S62)。その結果、合成画像データが生成される。   Next, data of the image captured by the camera 28 of the own device (own device image data) is acquired (S60). In S60, the self image data of the resolution input from the PC 3 in S51 is acquired. Further, the own apparatus image data is acquired according to the frame rate input in S51. Next, image data (other device image data) is acquired from the video conference terminal 1 connected to the lower level (S61). The other apparatus image data acquired in S61 is image data of an image captured by the lower video conference terminal 1 if only one video conference terminal 1 is connected to the lower level. On the other hand, if there are a plurality of video conference terminals 1 connected to the lower level, a composite image of a plurality of images captured by the lower level video conference terminals 1 is obtained. Although details will be described later, the resolution and frame rate of the other apparatus image data are the same as the resolution and frame rate of the own apparatus image data acquired in S60. Further, DCT and quantization have already been performed on the other apparatus image data. Next, the own device image data is synthesized at the position recognized in S55 or S57 among the other device image data (S62). As a result, composite image data is generated.

最上位端末では、生成された合成画像データに対して予測符号化処理が行われる(S63)。さらに、ハフマン符号化が行われる(S64)。最上位端末が予測符号化およびハフマン符号化を行ってデータを圧縮することで、PC3はこれらの処理を行う必要がなくなる。なお、S64では、CPU10はハフマン符号化以外のエントロピー符号化を行ってもよい。予測符号化およびエントロピー符号化のいずれかのみを行ってもよい。符号化された合成画像データは、自装置に接続しているPC3に出力される(S65)。操作部29等から会議終了指示を入力するまで(S66:NO)、S60〜S66の処理が繰り返される。会議終了指示を入力すると(S66:YES)、処理は終了する。   In the highest terminal, a predictive encoding process is performed on the generated composite image data (S63). Further, Huffman coding is performed (S64). Since the highest terminal performs the predictive coding and the Huffman coding to compress the data, the PC 3 does not need to perform these processes. In S64, the CPU 10 may perform entropy coding other than Huffman coding. Only either predictive coding or entropy coding may be performed. The encoded composite image data is output to the PC 3 connected to the own apparatus (S65). Until a conference end instruction is input from the operation unit 29 or the like (S66: NO), the processing of S60 to S66 is repeated. When the conference end instruction is input (S66: YES), the process ends.

図10を参照して、下位端末処理について説明する。下位端末処理が開始されると、上位に接続されているテレビ会議端末1から解像度およびフレームレートが入力される(S71)。下位にテレビ会議端末1が接続されていれば(自装置が最下位端末でなければ)、入力した解像度・フレームレートと、会議開始指示とが、下位のテレビ会議端末1に転送される(S72)。   The lower terminal processing will be described with reference to FIG. When the lower terminal processing is started, the resolution and the frame rate are input from the video conference terminal 1 connected to the upper terminal (S71). If the video conference terminal 1 is connected to the lower level (the device itself is not the lowest level terminal), the input resolution / frame rate and the conference start instruction are transferred to the lower level video conference terminal 1 (S72). ).

上位に接続されているテレビ会議端末1からレイアウト情報(図6参照)が入力されたか否かが判断される(S73)。レイアウト情報が入力された場合(S73:YES)、自装置が最下位端末でなければ、レイアウト情報が下位のテレビ会議端末1に転送される(S74)。レイアウト情報が示す合成位置のうち、自装置の接続番号に対応する合成位置が、自装置画像の合成位置として認識される(S75)。レイアウト情報が入力されていない場合(S73:NO)、フラッシュメモリ13から合成位置テーブル(図9参照)が取得される(S76)。取得された合成位置テーブルから、合計台数、解像度、および自装置の接続順に対応する座標情報が取得される。取得された座標情報によって示される位置が、自装置画像の合成位置として認識される(S77)。   It is determined whether layout information (see FIG. 6) has been input from the video conference terminal 1 connected to the host (S73). When the layout information is input (S73: YES), if the own apparatus is not the lowest terminal, the layout information is transferred to the lower video conference terminal 1 (S74). Among the composite positions indicated by the layout information, the composite position corresponding to the connection number of the self apparatus is recognized as the composite position of the self apparatus image (S75). When the layout information is not input (S73: NO), the composite position table (see FIG. 9) is acquired from the flash memory 13 (S76). The coordinate information corresponding to the total number of units, the resolution, and the connection order of the own apparatus is acquired from the acquired combined position table. The position indicated by the acquired coordinate information is recognized as the composite position of the own apparatus image (S77).

次いで、自装置のカメラ28から自装置画像データが取得される(S79)。S79では、S71で取得された解像度およびフレームレートに従って自装置画像データが取得される。つまり、複数のテレビ会議端末1の間で共通の解像度およびフレームレートが用いられることになる。自装置が最下位端末であれば(S80:YES)、S75またはS77で認識された位置に自装置画像データが配置され(S81)、この画像データに対して離散コサイン変換(DCT)および量子化処理が行われる(S85)。DCTおよび量子化が行われた画像データが、上位に接続しているテレビ会議端末1に出力される(S86)。画像データの出力前にDCTおよび量子化を行うことで、上位のテレビ会議端末1およびPC3の処理負担を低下させることができる。さらに、本実施の形態では、予測符号化およびハフマン符号化は最上位端末のみで行われる。従って、中間端末および最上位端末は、他装置画像データを復号化することなく、他装置画像データに自装置画像データを合成することができる。なお、S85では、離散フーリエ変換(DFT)等の他の変換符号化処理が行われてもよいし、変換符号化および量子化のいずれかのみが行われてもよい。   Next, own device image data is acquired from the camera 28 of the own device (S79). In S79, the apparatus image data is acquired according to the resolution and frame rate acquired in S71. That is, a common resolution and frame rate are used among the plurality of video conference terminals 1. If the own device is the lowest terminal (S80: YES), the own device image data is arranged at the position recognized in S75 or S77 (S81), and discrete cosine transform (DCT) and quantization are performed on this image data. Processing is performed (S85). The image data subjected to DCT and quantization is output to the video conference terminal 1 connected to the host (S86). By performing DCT and quantization before outputting image data, the processing burden on the upper video conference terminal 1 and the PC 3 can be reduced. Furthermore, in the present embodiment, predictive coding and Huffman coding are performed only at the highest terminal. Therefore, the intermediate terminal and the highest terminal can synthesize their own device image data with the other device image data without decoding the other device image data. In S85, other transform coding processing such as discrete Fourier transform (DFT) may be performed, or only transform coding or quantization may be performed.

自装置が最下位端末でなく中間端末であれば(S80:NO)、下位に接続しているテレビ会議端末1から他装置画像データが取得される(S83)。取得された他装置画像データのうち、S75またはS77で認識した位置に、自装置画像データが合成される(S84)。その結果、合成画像データが生成される。生成された合成画像データに対してDCTおよび量子化が行われて(S85)、合成画像データは上位のテレビ会議端末1に出力される(S86)。操作部29等から会議終了指示を入力するまで(S87:NO)、S79〜S87の処理が繰り返される。会議終了指示を入力すると(S87:YES)、処理は終了する。   If the own apparatus is not the lowest terminal but an intermediate terminal (S80: NO), the other apparatus image data is acquired from the video conference terminal 1 connected to the lower terminal (S83). Among the acquired other device image data, the own device image data is synthesized at the position recognized in S75 or S77 (S84). As a result, composite image data is generated. The generated composite image data is subjected to DCT and quantization (S85), and the composite image data is output to the upper video conference terminal 1 (S86). Until a conference end instruction is input from the operation unit 29 or the like (S87: NO), the processes of S79 to S87 are repeated. When the conference end instruction is input (S87: YES), the process ends.

以上説明したように、本実施の形態のテレビ会議端末1は、複数のカメラ28によって撮像された複数の画像の画像データを合成して合成画像データを生成する。生成した合成画像データを、上位のテレビ会議端末1またはPC3に出力することができる。最上位端末から合成画像データを入力したPC3は、画像データを合成する処理を行う必要がない。従って、テレビ会議端末1はPC3の処理負担を低下させることができ、テレビ会議中の通信が乱れる可能性を低下させることができる。   As described above, the video conference terminal 1 according to the present embodiment generates composite image data by combining the image data of a plurality of images captured by the plurality of cameras 28. The generated composite image data can be output to the upper video conference terminal 1 or the PC 3. The PC 3 that has input the composite image data from the highest terminal does not need to perform a process of combining the image data. Therefore, the video conference terminal 1 can reduce the processing load of the PC 3, and can reduce the possibility that communication during the video conference is disturbed.

テレビ会議端末1は、自装置が撮像した画像のデータ(自装置画像データ)の合成位置を、合成位置テーブルおよび自装置の接続順に応じて容易に認識することができる。認識した適切な位置に自装置画像データを合成することができる。PC3は、画像データの合成位置を各々のテレビ会議端末1に指示する必要はない。従って、合成位置テーブルを用いる場合、テレビ会議端末1はPC3の処理負担をさらに低下させることができる。   The video conference terminal 1 can easily recognize the composite position of the image data (self apparatus image data) captured by the self apparatus according to the combination position table and the connection order of the self apparatus. The apparatus image data can be synthesized at the appropriate recognized position. The PC 3 does not need to instruct each video conference terminal 1 to synthesize the image data. Therefore, when the composite position table is used, the video conference terminal 1 can further reduce the processing load on the PC 3.

テレビ会議端末1は、ユーザがPC3の操作部47を操作することで設定されたレイアウト情報によって、自装置画像データの合成位置を認識することができる。この場合、ユーザは、各テレビ会議端末1が撮像した画像のレイアウトを自由に決定することができる。テレビ会議端末1は、レイアウト情報が示す適切な位置に自装置画像データを合成することができる。   The video conference terminal 1 can recognize the composite position of its own device image data based on the layout information set by the user operating the operation unit 47 of the PC 3. In this case, the user can freely determine the layout of the image captured by each video conference terminal 1. The video conference terminal 1 can synthesize the own device image data at an appropriate position indicated by the layout information.

テレビ会議端末1は、自装置が中間端末または最下位端末として動作する場合には、変換符号化および量子化を行った画像データを上位のテレビ会議端末に出力する。従って、上位のテレビ会議端末がデータ量の大きい画像データを取得して処理負担が増加することを防止することができる。また、上位のテレビ会議端末1が入力する他装置画像データには、予測符号化およびエントロピー符号化は行われていない。従って、テレビ会議端末1は、合成画像データを生成する際に他装置画像データを復号化する必要もない。さらに、テレビ会議端末1は、最上位端末として動作する場合には、予測符号化およびエントロピー符号化を行った合成画像データをPC3に出力する。よって、PC3の処理負担をさらに低下させることができる。   When the video conference terminal 1 operates as an intermediate terminal or the lowest terminal, the video conference terminal 1 outputs image data subjected to transform coding and quantization to a higher video conference terminal. Therefore, it is possible to prevent an upper video conference terminal from acquiring image data having a large amount of data and increasing the processing load. In addition, predictive coding and entropy coding are not performed on the other apparatus image data input by the higher-level video conference terminal 1. Therefore, the video conference terminal 1 does not need to decode the other device image data when generating the composite image data. Further, when the video conference terminal 1 operates as the highest terminal, the video conference terminal 1 outputs the composite image data subjected to the predictive coding and the entropy coding to the PC 3. Therefore, the processing burden on the PC 3 can be further reduced.

テレビ会議端末1は、最上位端末として動作する場合、解像度およびフレームレートをPC3から取得し、下位のテレビ会議端末1に通知する。各テレビ会議端末1は、PC3から取得された解像度およびフレームレートに従って合成画像データを生成することができる。従って、テレビ会議端末1は、他のテレビ会議端末1と解像度およびフレームレートを共有して適切な合成画像データをPC3に出力することができる。   When the video conference terminal 1 operates as the highest-level terminal, the video conference terminal 1 acquires the resolution and the frame rate from the PC 3 and notifies the lower video conference terminal 1. Each video conference terminal 1 can generate composite image data according to the resolution and frame rate acquired from the PC 3. Accordingly, the video conference terminal 1 can share appropriate resolution and frame rate with other video conference terminals 1 and output appropriate composite image data to the PC 3.

上記実施の形態において、テレビ会議端末1が本発明の「画像処理装置」に相当する。PC3が本発明の「通信装置」に相当する。図7の端末会議処理で合計台数を取得するCPU10が「台数取得手段」として機能する。自装置画像データが本発明の「第一画像データ」に相当する。図8のS60および図10のS79で自装置画像データを取得するCPU10が「第一画像データ取得手段」として機能する。他装置画像データが本発明の「第二画像データ」に相当する。図8のS61および図10のS83で他装置画像データを取得するCPU10が「第二画像データ取得手段」として機能する。図8のS62および図10のS84で合成画像データを生成するCPU10が「生成手段」として機能する。図8のS65および図10のS86で合成画像データを出力するCPU10が「出力手段」として機能する。   In the above embodiment, the video conference terminal 1 corresponds to the “image processing apparatus” of the present invention. The PC 3 corresponds to the “communication device” of the present invention. The CPU 10 that acquires the total number in the terminal conference process of FIG. 7 functions as a “number acquisition unit”. The own apparatus image data corresponds to the “first image data” of the present invention. The CPU 10 that acquires the apparatus image data in S60 of FIG. 8 and S79 of FIG. 10 functions as a “first image data acquisition unit”. The other device image data corresponds to the “second image data” of the present invention. The CPU 10 that acquires the other apparatus image data in S61 of FIG. 8 and S83 of FIG. 10 functions as the “second image data acquisition unit”. The CPU 10 that generates the composite image data in S62 of FIG. 8 and S84 of FIG. 10 functions as a “generating unit”. The CPU 10 that outputs the composite image data in S65 of FIG. 8 and S86 of FIG. 10 functions as an “output unit”.

図7のS23、S34で接続番号を取得するCPU10が「接続順情報取得手段」として機能する。図8のS56および図10のS76で合成位置テーブルを取得するCPU10が「テーブル取得手段」として機能する。図8のS53および図10のS73でレイアウト情報を取得するCPU10が「設定情報取得手段」として機能する。図7のS21で自装置がPC3に直接接続されているか否かを判断するCPU10が「判断手段」として機能する。図8のS63,S64で予測符号化処理を含む圧縮処理を行うCPU10が「圧縮処理手段」として機能する。図8のS51で解像度およびフレームレートを取得するCPU10が「出力情報取得手段」として機能する。図8のS52および図10のS72で解像度およびフレームレートを転送するCPU10が「通知手段」として機能する。   The CPU 10 that acquires the connection number in S23 and S34 in FIG. 7 functions as a “connection order information acquisition unit”. The CPU 10 that acquires the combined position table in S56 of FIG. 8 and S76 of FIG. 10 functions as a “table acquisition unit”. The CPU 10 that acquires the layout information in S53 of FIG. 8 and S73 of FIG. 10 functions as a “setting information acquisition unit”. The CPU 10 that determines whether or not the device itself is directly connected to the PC 3 in S21 of FIG. 7 functions as a “determination unit”. The CPU 10 that performs the compression process including the predictive encoding process in S63 and S64 of FIG. 8 functions as a “compression processing unit”. The CPU 10 that acquires the resolution and the frame rate in S51 of FIG. 8 functions as an “output information acquisition unit”. The CPU 10 that transfers the resolution and the frame rate in S52 of FIG. 8 and S72 of FIG. 10 functions as “notification means”.

図7の端末会議処理で合計台数を取得する処理が「台数取得ステップ」に相当する。図8のS60および図10のS79で自装置画像データを取得する処理が「第一画像データ取得ステップ」に相当する。図8のS61および図10のS83で他装置画像データを取得する処理が「第二画像データ取得ステップ」に相当する。図8のS62および図10のS84で合成画像データを生成する処理が「生成ステップ」に相当する。図8のS65および図10のS86で合成画像データを出力する処理が「出力ステップ」に相当する。   The process of acquiring the total number in the terminal conference process of FIG. 7 corresponds to the “number acquisition step”. The process of acquiring the apparatus image data in S60 of FIG. 8 and S79 of FIG. 10 corresponds to the “first image data acquisition step”. The process of acquiring the other apparatus image data in S61 of FIG. 8 and S83 of FIG. 10 corresponds to a “second image data acquisition step”. The process of generating the composite image data in S62 of FIG. 8 and S84 of FIG. 10 corresponds to a “generation step”. The process of outputting the composite image data in S65 of FIG. 8 and S86 of FIG. 10 corresponds to an “output step”.

本発明は上記実施の形態に限定されることはなく、様々な変形が可能であることは言うまでもない。例えば、テレビ会議端末1以外のデバイスを本発明に係る「画像処理装置」として用いることも可能である。例えば、ネットワーク8に接続しているPC3に、カメラを備えた複数のPCを直列に接続することで、テレビ会議を実行することも可能である。この場合、カメラを備えた複数のPCの各々が本発明の「画像処理装置」に相当する。また、画像処理装置自身がカメラを備えている必要はない。画像処理装置は、自身に接続している外付けのカメラから自装置画像データを入力することも可能である。同様に、本発明に係る「通信装置」もPC3である必要はない。テレビ会議を実行するための専用の通信装置等を、本発明に係る「通信装置」として用いることも可能である。   It goes without saying that the present invention is not limited to the above-described embodiment, and various modifications are possible. For example, a device other than the video conference terminal 1 can be used as the “image processing apparatus” according to the present invention. For example, a video conference can be executed by connecting a plurality of PCs equipped with cameras in series to the PC 3 connected to the network 8. In this case, each of a plurality of PCs equipped with a camera corresponds to the “image processing apparatus” of the present invention. Further, the image processing apparatus itself does not need to have a camera. The image processing apparatus can also input its own image data from an external camera connected to the image processing apparatus. Similarly, the “communication device” according to the present invention need not be the PC 3. A dedicated communication device or the like for executing a video conference can also be used as the “communication device” according to the present invention.

PC3と最上位端末との間の接続、および複数のテレビ会議端末1間の接続は、USB接続に限られず、他のプロトコルに従った接続方法を用いてもよい。無線通信を用いてもよいことは言うまでもない。   The connection between the PC 3 and the highest terminal and the connection between the plurality of video conference terminals 1 are not limited to the USB connection, and a connection method according to another protocol may be used. It goes without saying that wireless communication may be used.

上記実施の形態では、複数のテレビ会議端末1が直列にPC3に接続されている。しかし、本発明は、複数のテレビ会議端末1の全てが並列にPC3に接続されている場合を除き、様々な場合に適用できる。例えば、PC3に複数のテレビ会議端末1が並列に接続されている場合でも、並列に接続された各テレビ会議端末1にさらにテレビ会議端末1が接続されている場合であれば、本発明を適用することができる。この場合、PC3は、自装置に並列に接続された複数のテレビ会議端末1から画像データを入力して合成する必要はある。しかし、本発明を適用すれば、PC3に直接接続された最上位端末は、自装置に入力された複数の画像を合成してPC3に出力することができる。従って、本発明を適用しない場合に比べて、PC3が画像を合成する処理の処理量は低下する。また、最上位端末に複数のテレビ会議端末1が並列に接続している場合には、最上位端末が全ての画像データを合成してPC3に出力することで、PC3の処理負担を低下させることができる。   In the said embodiment, the some video conference terminal 1 is connected to PC3 in series. However, the present invention can be applied to various cases except when all of the plurality of video conference terminals 1 are connected to the PC 3 in parallel. For example, even when a plurality of video conference terminals 1 are connected in parallel to the PC 3, the present invention is applied if the video conference terminal 1 is further connected to each video conference terminal 1 connected in parallel. can do. In this case, the PC 3 needs to input and combine image data from a plurality of video conference terminals 1 connected in parallel to the PC 3. However, if the present invention is applied, the highest terminal directly connected to the PC 3 can synthesize a plurality of images input to the own device and output the synthesized image to the PC 3. Therefore, the processing amount of the process in which the PC 3 synthesizes an image is reduced as compared with the case where the present invention is not applied. Further, when a plurality of video conference terminals 1 are connected in parallel to the highest terminal, the highest terminal synthesizes all the image data and outputs them to the PC 3, thereby reducing the processing load on the PC 3. Can do.

上記実施の形態では、PC3は自ら画像を撮像することはない。しかし、PC3は、自ら自装置画像データを取得し、最上位端末から入力した他装置画像データに自装置画像データを合成してもよい。この場合、最上位端末は、予測符号化およびエントロピー符号化を行わずに合成画像データをPC3に出力するのが望ましい。   In the above embodiment, the PC 3 does not take an image by itself. However, the PC 3 may acquire its own device image data and synthesize the own device image data with the other device image data input from the highest terminal. In this case, it is desirable that the highest terminal outputs the composite image data to the PC 3 without performing predictive coding and entropy coding.

上記実施の形態では、ユーザ自身が画像のレイアウトを指定する場合、PC3がユーザの操作入力を受け付けることでレイアウト情報が設定される。しかし、テレビ会議端末1がユーザの操作入力を受け付けてレイアウト情報を設定してもよい。   In the above embodiment, when the user himself / herself designates the image layout, the layout information is set by the PC 3 receiving the user's operation input. However, the video conference terminal 1 may accept user operation input and set layout information.

1 テレビ会議端末
3 PC
8 ネットワーク
10 CPU
11 ROM
13 フラッシュメモリ
21 USBデバイスI/F
25 USBホストI/F
28 カメラ
51 画像配置入力用テンプレート
100 通信システム
1 Video conference terminal 3 PC
8 Network 10 CPU
11 ROM
13 Flash memory 21 USB device I / F
25 USB host I / F
28 Camera 51 Image layout input template 100 Communication system

Claims (7)

ネットワークを介してデータを送信する通信装置と、前記通信装置に対して直列に接続される複数の画像処理装置とを備える通信システムにおいて使用され、他の拠点で表示させる画像の画像データを前記通信装置に出力することが可能な画像処理装置であって、
前記通信装置に連なって接続している他の画像処理装置の台数を取得する台数取得手段と、
画像を撮像する撮像手段から第一画像データを取得する第一画像データ取得手段と、
自装置に接続している他の画像処理装置から第二画像データを取得する第二画像データ取得手段と、
前記第一画像データ取得手段によって取得された第一画像データと前記第二画像データ取得手段によって取得された第二画像データとを、前記台数取得手段によって取得された台数に応じて合成して合成画像データを生成する生成手段と、
前記生成手段によって生成された前記合成画像データを、接続している他の画像処理装置または前記通信装置に出力する出力手段と
を備えたことを特徴とする画像処理装置。
Used in a communication system including a communication device that transmits data via a network and a plurality of image processing devices connected in series to the communication device, and the image data of an image to be displayed at another base is the communication An image processing apparatus capable of outputting to an apparatus,
Number acquisition means for acquiring the number of other image processing devices connected to the communication device;
First image data acquisition means for acquiring first image data from an imaging means for capturing an image;
Second image data acquisition means for acquiring second image data from another image processing apparatus connected to the apparatus;
The first image data acquired by the first image data acquisition unit and the second image data acquired by the second image data acquisition unit are combined and synthesized according to the number of units acquired by the number acquisition unit. Generating means for generating image data;
An image processing apparatus comprising: output means for outputting the composite image data generated by the generation means to another connected image processing apparatus or the communication apparatus.
前記通信装置に連なって接続している自装置および他の画像処理装置のうち、前記通信装置に対する自装置の接続順を取得する接続順情報取得手段と、
合成画像データ上の座標における第一画像データの合成位置を示す座標情報と、前記自装置の接続順とを対応付けるテーブルを記憶手段から取得するテーブル取得手段とをさらに備え、
前記生成手段は、前記テーブル取得手段によって取得されたテーブルにおいて、前記接続順情報取得手段によって取得された前記自装置の接続順に対応する座標情報が示す合成位置に、第一画像データを合成することを特徴とする請求項1に記載の画像処理装置。
A connection order information acquisition means for acquiring a connection order of the own apparatus with respect to the communication apparatus among the own apparatus connected to the communication apparatus and other image processing apparatuses;
A table acquisition means for acquiring from the storage means a table that associates the coordinate information indicating the synthesis position of the first image data in the coordinates on the composite image data and the connection order of the own device;
In the table acquired by the table acquisition unit, the generation unit combines the first image data at a combination position indicated by coordinate information corresponding to the connection order of the own apparatus acquired by the connection order information acquisition unit. The image processing apparatus according to claim 1.
ユーザが表示手段に表示されたテンプレートに対して操作を入力することで設定される情報であり、前記テンプレート上の座標において前記ユーザが指定した各画像処理装置の第一画像データの合成位置を示す座標情報を取得する設定情報取得手段をさらに備え、
前記生成手段は、前記設定情報取得手段によって取得された座標情報が示す合成位置に、第一画像データを合成することを特徴とする請求項1に記載の画像処理装置。
This is information set by the user inputting an operation on the template displayed on the display means, and indicates the composite position of the first image data of each image processing apparatus designated by the user at the coordinates on the template It further comprises setting information acquisition means for acquiring coordinate information,
The image processing apparatus according to claim 1, wherein the generation unit combines the first image data at a combination position indicated by the coordinate information acquired by the setting information acquisition unit.
前記第二画像データ取得手段は、変換符号化および量子化が行われた第二画像データを、接続している前記他の画像処理装置から取得し、
前記画像処理装置は、
自装置が他の画像処理装置を介さずに前記通信装置に接続しているか否かを判断する判断手段と、
前記判断手段によって他の画像処理装置を介さずに前記通信装置に接続されていると判断された場合に、前記生成手段によって生成された合成画像データに対して予測符号化処理を含む圧縮処理を行う圧縮処理手段をさらに備え、
前記出力手段は、前記圧縮処理手段によって処理された合成画像データを前記通信装置に出力することを特徴とする請求項1から3のいずれかに記載の画像処理装置。
The second image data acquisition means acquires the second image data subjected to transform coding and quantization from the other image processing device connected thereto,
The image processing apparatus includes:
Determining means for determining whether or not the own apparatus is connected to the communication apparatus without passing through another image processing apparatus;
When it is determined by the determination means that the communication device is connected without going through another image processing device, the composite image data generated by the generation device is subjected to compression processing including predictive coding processing. Further comprising compression processing means for performing,
The image processing apparatus according to claim 1, wherein the output unit outputs the composite image data processed by the compression processing unit to the communication apparatus.
前記通信装置に出力する合成画像データの解像度およびフレームレートを前記通信装置から取得する出力情報取得手段と、
前記出力情報取得手段によって取得された解像度およびフレームレートを、前記通信装置に連なって接続している他の画像処理装置に通知する通知手段とをさらに備え、
前記生成手段は、前記出力情報取得手段によって取得された解像度およびフレームレート、または他の画像処理装置の通知手段によって通知された解像度およびフレームレートに従って合成画像データを生成することを特徴とする請求項1から4のいずれかに記載の画像処理装置。
Output information acquisition means for acquiring from the communication device the resolution and frame rate of the composite image data to be output to the communication device;
A notification means for notifying the other image processing apparatus connected to the communication apparatus of the resolution and frame rate acquired by the output information acquisition means;
The generation unit generates composite image data in accordance with the resolution and frame rate acquired by the output information acquisition unit or the resolution and frame rate notified by a notification unit of another image processing apparatus. The image processing apparatus according to any one of 1 to 4.
ネットワークを介してデータを送信する通信装置と、前記通信装置に対して直列に接続される複数の画像処理装置とを備える通信システムにおいて使用され、他の拠点で表示させる画像の画像データを前記通信装置に出力することが可能な画像処理装置によって実行される画像処理方法であって、
前記通信装置に連なって接続している他の画像処理装置の台数を取得する台数取得ステップと、
画像を撮像する撮像手段から第一画像データを取得する第一画像データ取得ステップと、
自装置に接続している他の画像処理装置から第二画像データを取得する第二画像データ取得ステップと、
前記第一画像データ取得ステップにおいて取得された第一画像データと前記第二画像データ取得ステップにおいて取得された第二画像データとを、前記台数取得ステップにおいて取得された台数に応じて合成して合成画像データを生成する生成ステップと、
前記生成ステップにおいて生成された前記合成画像データを、接続している他の画像処理装置または前記通信装置に出力する出力ステップと
を備えたことを特徴とする画像処理方法。
Used in a communication system including a communication device that transmits data via a network and a plurality of image processing devices connected in series to the communication device, and the image data of an image to be displayed at another base is the communication An image processing method executed by an image processing apparatus capable of outputting to an apparatus,
Number acquisition step of acquiring the number of other image processing devices connected to the communication device; and
A first image data acquisition step of acquiring first image data from an imaging means for capturing an image;
A second image data acquisition step of acquiring second image data from another image processing device connected to the device;
The first image data acquired in the first image data acquisition step and the second image data acquired in the second image data acquisition step are combined and combined according to the number acquired in the number acquisition step. A generation step for generating image data;
An image processing method comprising: an output step of outputting the composite image data generated in the generation step to another connected image processing device or the communication device.
ネットワークを介してデータを送信する通信装置と、前記通信装置に対して直列に接続される複数の画像処理装置とを備える通信システムにおいて使用され、他の拠点で表示させる画像の画像データを前記通信装置に出力することが可能な画像処理装置で用いられる画像処理プログラムであって、
前記通信装置に連なって接続している他の画像処理装置の台数を取得する台数取得ステップと、
画像を撮像する撮像手段から第一画像データを取得する第一画像データ取得ステップと、
自装置に接続している他の画像処理装置から第二画像データを取得する第二画像データ取得ステップと、
前記第一画像データ取得ステップにおいて取得された第一画像データと前記第二画像データ取得ステップにおいて取得された第二画像データとを、前記台数取得ステップにおいて取得された台数に応じて合成して合成画像データを生成する生成ステップと、
前記生成ステップにおいて生成された前記合成画像データを、接続している他の画像処理装置または前記通信装置に出力する出力ステップと
を前記画像処理装置のコントローラに実行させるための指示を含む画像処理プログラム。
Used in a communication system including a communication device that transmits data via a network and a plurality of image processing devices connected in series to the communication device, and the image data of an image to be displayed at another base is the communication An image processing program used in an image processing apparatus capable of outputting to an apparatus,
Number acquisition step of acquiring the number of other image processing devices connected to the communication device; and
A first image data acquisition step of acquiring first image data from an imaging means for capturing an image;
A second image data acquisition step of acquiring second image data from another image processing device connected to the device;
The first image data acquired in the first image data acquisition step and the second image data acquired in the second image data acquisition step are combined and combined according to the number acquired in the number acquisition step. A generation step for generating image data;
An image processing program including an instruction for causing the controller of the image processing apparatus to execute the output step of outputting the composite image data generated in the generating step to another connected image processing apparatus or the communication apparatus .
JP2011044605A 2011-03-02 2011-03-02 Image processing apparatus, image processing method, and image processing program Withdrawn JP2012182688A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011044605A JP2012182688A (en) 2011-03-02 2011-03-02 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011044605A JP2012182688A (en) 2011-03-02 2011-03-02 Image processing apparatus, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2012182688A true JP2012182688A (en) 2012-09-20

Family

ID=47013499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011044605A Withdrawn JP2012182688A (en) 2011-03-02 2011-03-02 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2012182688A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018085006A (en) * 2016-11-25 2018-05-31 株式会社コンテック Usb system and usb apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018085006A (en) * 2016-11-25 2018-05-31 株式会社コンテック Usb system and usb apparatus

Similar Documents

Publication Publication Date Title
JP5216303B2 (en) Composite video distribution apparatus and method and program thereof
JP2021022909A (en) Information processing apparatus, information processing program, information processing system, and information processing method
US10079996B2 (en) Communication system, communication device, and communication method
JP6179179B2 (en) Information processing apparatus, information processing method, and program
CN112911197A (en) Video information processing system, mobile communication terminal, and video information processing method
JP2015126524A (en) Remote conference program, terminal device, and remote conference method
CN110162255B (en) Single-machine program running method, device, equipment and storage medium
JP2017034312A (en) Communication device, communication system, and program
JP5272820B2 (en) Video conference apparatus, video conference system, video conference method, and video conference program
JP2019192121A (en) Voice input device and remote dialogue system
JP6590152B2 (en) Information processing apparatus, conference system, and control method for information processing apparatus
JP2012182688A (en) Image processing apparatus, image processing method, and image processing program
JP2016192610A (en) Remote conference program, controller and remote conference method
JP2011135272A (en) Terminal, processing method, and processing program
JP2009260820A (en) Communication system and communication method
WO2022000158A1 (en) Videoconference user interface layout based on face detection
JP6544209B2 (en) INFORMATION PROCESSING APPARATUS, CONFERENCE SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6029626B2 (en) Control device and control method
KR20220015306A (en) Electronic device and control method thereof
JP5488050B2 (en) Operation control method, operation control program, data processing apparatus, and data processing system
JP2006211504A (en) Conference terminal apparatus, conference system and computer program
CN111968638A (en) Method, system, equipment and storage medium for voice control display terminal
JP2009296049A (en) Video conference system
US20230247383A1 (en) Information processing apparatus, operating method of information processing apparatus, and non-transitory computer readable medium
JP6161286B2 (en) Imaging apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513