JP2006222942A - Image synthesizer, and method and program for synthesizing image - Google Patents

Image synthesizer, and method and program for synthesizing image Download PDF

Info

Publication number
JP2006222942A
JP2006222942A JP2006008942A JP2006008942A JP2006222942A JP 2006222942 A JP2006222942 A JP 2006222942A JP 2006008942 A JP2006008942 A JP 2006008942A JP 2006008942 A JP2006008942 A JP 2006008942A JP 2006222942 A JP2006222942 A JP 2006222942A
Authority
JP
Japan
Prior art keywords
video
input
scaling
magnification
scaled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006008942A
Other languages
Japanese (ja)
Other versions
JP2006222942A5 (en
JP4559976B2 (en
Inventor
Shingo Tanaka
中 信 吾 田
Eiji Kamagata
形 映 二 鎌
Yoshiyuki Tsuda
田 悦 幸 津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006008942A priority Critical patent/JP4559976B2/en
Publication of JP2006222942A publication Critical patent/JP2006222942A/en
Publication of JP2006222942A5 publication Critical patent/JP2006222942A5/ja
Application granted granted Critical
Publication of JP4559976B2 publication Critical patent/JP4559976B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate a plurality of synthesized images by synthesizing a plurality of input images respectively with different patterns while preventing increase of the circuit scale to the highest possible extent. <P>SOLUTION: Images are synthesized to scale each of I pieces of input images with a plurality of scaling factors to generate a plurality of scaled input images for each of the input images, to store the plurality of the scaled input images generated for each of the input images into respective prescribed areas in a image storing means, to read out the input images from the image storing means respectively based on J pieces of image arrangement information, and to generate synthesized images from the read out input images based on respective image arrangement information. The image arrangement information determines the arrangement of each of the input images on the respective synthesized images. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、複数の映像信号を入力し、それらを異なるパターンで合成した映像信号を複数出力する映像合成装置、映像合成方法及び映像合成プログラムに関する。   The present invention relates to a video synthesizing apparatus, a video synthesizing method, and a video synthesizing program for inputting a plurality of video signals and outputting a plurality of video signals obtained by synthesizing them with different patterns.

テレビ会議では、複数の端末同士間でマイク音声やカメラ映像などによりコミュニケーションを行ういわゆる多地点テレビ会議の場合、単純に互いの端末同士をフルメッシュで接続すると、通信や端末処理の面で負荷が大きい。そこで、通常はMCU(Multipoint Conference Unit:多地点会議ユニット)を設ける手法がとられる。MCUはサーバの一種で、各端末と接続して各端末からの音声や映像を受信し、それらを合成し、合成したものを各端末に送信する機能を持つ。このMCUによって、各端末はMCUとのみ通信し、MCUからの合成音声や合成映像を受信するだけで、全ての参加者からの音声や映像を得られるようになり、通信や端末処理の面で効率がよい。このように、MCUは多地点テレビ会議において重要な役割を持ち、ここで映像合成技術が利用されている。   In a video conference, in the case of a so-called multipoint video conference in which a plurality of terminals communicate with each other by means of microphone sound, camera video, etc., simply connecting each other's terminals with a full mesh places a burden on the communication and terminal processing. large. Therefore, a method of providing an MCU (Multipoint Conference Unit) is usually used. The MCU is a kind of server and has a function of connecting to each terminal, receiving audio and video from each terminal, synthesizing them, and transmitting the synthesized one to each terminal. With this MCU, each terminal communicates only with the MCU, and it is possible to obtain audio and video from all participants simply by receiving the synthesized voice and synthesized video from the MCU, in terms of communication and terminal processing. Efficiency is good. As described above, the MCU plays an important role in the multipoint video conference, and the video composition technology is used here.

映像合成技術のもう一つの応用として、監視カメラの画面分割ユニットがある。監視カメラは通常建物などに複数個設置されているため、それを別々のモニタで観察・録画すると設備が大掛かりになり、使い勝手が悪い。そこで、通常は画面分割ユニットを使用し、複数のカメラ映像を合成して一つの映像信号にし、それを単一のモニタで確認したり単一の録画機で録画できるようにする手法がとられる。
特開平11−88854号公報 特開平5−103324号公報
Another application of video composition technology is a screen splitting unit for surveillance cameras. Since a plurality of surveillance cameras are usually installed in a building or the like, if they are observed and recorded on different monitors, the equipment becomes large and inconvenient. Therefore, a method is usually used that uses a screen division unit to combine multiple camera images into a single video signal that can be confirmed on a single monitor or recorded on a single recorder. .
Japanese Patent Laid-Open No. 11-88854 JP-A-5-103324

しかし、従来の映像合成技術はそのほとんどが単一の合成映像を出力するものであり、複数の合成映像を出力する場合を提案したものは少なかった。   However, most of the conventional video composition techniques output a single composite video, and there have been few proposals for outputting a plurality of composite videos.

例えばテレビ会議の場合を考えると、従来のように合成映像が一種類で全ての参加者がそれを見るという形態でもテレビ会議としては成り立つ。しかし、より高い利便性を追求すると、例えば合成されている複数の映像のうちある特定の映像をズームして表示したいといった要求も生じる。特開平11-88854号公報ではそれに対する一つの解を示している。ただし、この特開平11-88854号公報の手法では、ある映像をズームした状態ではズームした映像以外の映像を見ることが出来ない。合成の仕方を変えて、例えばズームした映像の中に他の映像を小さく埋め込むとか、あるいは映像を全画面にズームするのではなく、相対的にある程度ズームして、その周辺に他の参加者を小さく表示するなどといった合成映像を提示できれば、より使い勝手がよい。この場合、各参加者が別々の映像をズームしたくなる場合が当然発生すると考えられ、従って、各端末用に別々のパターンで映像を合成し、複数の異なる合成映像を出力することが要求される。   For example, in the case of a video conference, a video conference can also be realized in a form in which all the participants see one type of composite video as in the conventional case. However, in pursuit of higher convenience, there is a demand for zooming and displaying a specific video among a plurality of synthesized videos. Japanese Patent Application Laid-Open No. 11-88854 shows one solution. However, with the technique disclosed in Japanese Patent Laid-Open No. 11-88854, when a certain image is zoomed, it is not possible to view images other than the zoomed image. Change the way of compositing, for example, embed another video in a zoomed video, or zoom the video to some extent instead of zooming the video to the full screen, and other participants around it. If it is possible to present a composite image such as a small display, it is easier to use. In this case, it is considered that each participant wants to zoom in on different videos, so it is required to synthesize videos with different patterns for each terminal and output a plurality of different synthesized videos. The

複数の合成映像を出力する形態は、知り得る限りでは唯一、特開平5-103324号公報に記載されている。この特開平5-103324号公報では映像メモリに記憶された入力映像を縮小回路が縮小して合成回路が合成して出力している。しかし、この形態を実際に実装することを考えると回路が複雑になる問題がある。具体的には以下のような問題が生じる。   The form of outputting a plurality of synthesized videos is only described in Japanese Patent Laid-Open No. 5-103324 as far as we know. In Japanese Patent Application Laid-Open No. 5-103324, an input video stored in a video memory is reduced by a reduction circuit and synthesized by a synthesis circuit and output. However, there is a problem that the circuit becomes complicated in consideration of actually mounting this form. Specifically, the following problems occur.

まず、合成された映像信号を出力する合成回路は通常、出力信号の規格にのっとったタイミングで信号を出力しなければならない。よって、そのためには自身の処理遅延を考慮してそれが可能なタイミングで自身へ入力信号を入力してもらわなければならない(間にバッファが設けられている場合は許容タイミング内で)。それに対し、合成回路への入力信号を生成する縮小回路は、合成回路が上記タイミングで信号を出力するには、同じく自身の処理遅延を考慮してそれに合わせたタイミングで映像メモリからデータを読み込まなければならない。このように、最終的な合成回路からの信号の出力タイミングに合わせて、合成回路の処理遅延を考慮しつつ縮小回路の出力タイミングを決定し、さらに縮小回路の処理遅延を考慮して映像メモリからデータを読み出すタイミングを決定しなければならない。   First, a synthesis circuit that outputs a synthesized video signal usually has to output a signal at a timing according to the standard of the output signal. Therefore, in order to do so, an input signal must be input to itself at a timing where it can be taken into consideration (within an allowable timing if a buffer is provided in between). On the other hand, a reduction circuit that generates an input signal to the synthesis circuit must read data from the video memory at the same timing in consideration of its own processing delay in order for the synthesis circuit to output a signal at the above timing. I must. In this way, the output timing of the reduction circuit is determined in consideration of the processing delay of the synthesis circuit in accordance with the output timing of the signal from the final synthesis circuit, and further from the video memory in consideration of the processing delay of the reduction circuit. You must decide when to read the data.

しかし、上記構成において、合成回路が動的に合成パターンを変更可能にし、さらに縮小回路が動的に縮小率を変更可能にする場合、遅延のタイミングも動的に変わることとなる。この結果、遅延に対処する処理が単純ではなくなり、回路の複雑化・回路規模の増大につながる。   However, in the above configuration, when the synthesis circuit can dynamically change the synthesis pattern and the reduction circuit can dynamically change the reduction rate, the delay timing also dynamically changes. As a result, processing for dealing with delays is not simple, leading to circuit complexity and circuit scale increase.

本発明は、回路規模の増大を可及的に防ぎつつ、複数の入力映像を別々のパターンで合成して複数の合成映像を生成できる映像合成装置、映像合成方法及び映像合成プログラムを提供する。   The present invention provides a video synthesizing apparatus, a video synthesizing method, and a video synthesizing program capable of generating a plurality of synthesized videos by synthesizing a plurality of input videos with different patterns while preventing an increase in circuit scale as much as possible.

本発明の一態様としての映像合成装置は、それぞれ入力映像が入力されるI個の映像変倍手段であって、各々自身に入力された前記入力映像を複数の倍率によって変倍して複数の変倍された入力映像を生成する、I個の映像変倍手段と、変倍された前記入力映像の書込み要求を受けて前記変倍された入力映像を前記書込み要求により指定された領域に一時的に記憶する映像記憶手段と、各々前記映像変倍手段に対応し、前記映像変倍手段によって生成された前記複数の変倍された入力映像の各々を前記映像記憶手段における所定領域へ書き込むことを前記映像記憶手段に要求する、複数の書込要求手段と、J個の映像配置情報のそれぞれに基づいて入力映像の読出し要求を行う、各前記映像配置情報のそれぞれは合成映像上における各入力映像の配置を定めている、読出要求手段と、前記読出し要求を受けて前記入力映像を前記映像記憶手段から読み出す読出制御手段と、各々前記映像配置情報に対応し、前記読出制御手段によって読み出された入力映像から合成映像を生成する、J個の合成映像生成手段と、を備える。   An image composition apparatus according to an aspect of the present invention is an I image scaling unit to which an input image is input, and each of the input images input to the image synthesizing unit is scaled by a plurality of magnifications. I video scaling means for generating a scaled input video, and receiving the write request for the scaled input video, temporarily storing the scaled input video in the area specified by the write request. Each of the plurality of scaled input videos generated by the video scaling means corresponding to the video scaling means and each of the plurality of scaled input videos generated by the video scaling means. Requesting the video storage means to request reading of the input video based on each of the plurality of write request means and the J pieces of video arrangement information. Each of the video arrangement information is each input on the composite video. Projection Read request means for determining the arrangement of the image, read control means for receiving the read request and reading the input video from the video storage means, each corresponding to the video arrangement information and read by the read control means. J composite video generation means for generating a composite video from the input video.

本発明の一態様としての映像合成方法は、I個の入力映像の各々を複数の倍率によって変倍して、前記入力映像ごとに複数の変倍された入力映像を生成し、前記入力映像ごとに生成された前記複数の変倍された入力映像の各々を映像記憶手段における所定領域に書き込み、J個の映像配置情報のそれぞれに基づいて、前記映像記憶手段から入力映像の読み出しを行い、前記映像配置情報は、合成映像上における各入力映像の配置を定めたものであり、前記映像配置情報ごとに読み出された入力映像から合成映像を生成する、ことを特徴とする。   According to another aspect of the present invention, there is provided a video composition method, wherein each of the I input videos is scaled by a plurality of magnifications to generate a plurality of scaled input videos for each of the input videos. Writing each of the plurality of scaled input videos generated in a predetermined area in the video storage means, reading the input video from the video storage means based on each of the J video arrangement information, The video layout information defines the layout of each input video on the composite video, and the composite video is generated from the input video read for each video layout information.

本発明の一態様としての映像合成プログラムは、I個の入力映像の各々を複数の倍率によって変倍して、前記入力映像ごとに複数の変倍された入力映像を生成するステップと、前記入力映像ごとに生成された前記複数の変倍された入力映像の各々を映像記憶手段における所定領域に書き込むステップと、J個の映像配置情報のそれぞれに基づいて、前記映像記憶手段から入力映像の読み出しを行う、前記映像配置情報は、合成映像上における各入力映像の配置を定めたものである、ステップと、前記映像配置情報ごとに読み出された入力映像から合成映像を生成するステップと、をコンピュータに実行させる。   The video composition program as one aspect of the present invention includes a step of scaling each of the I input videos by a plurality of magnifications to generate a plurality of scaled input videos for each input video, and the input Writing each of the plurality of scaled input videos generated for each video into a predetermined area in the video storage unit, and reading out the input video from the video storage unit based on each of the J video arrangement information The video layout information defines a layout of each input video on the composite video, and a step of generating a composite video from the input video read for each video layout information. Let the computer run.

本発明により、回路規模の増大を可及的に防ぎつつ、複数の入力映像を別々のパターンで合成して複数の合成映像を生成できる。   According to the present invention, it is possible to generate a plurality of synthesized videos by synthesizing a plurality of input videos with different patterns while preventing an increase in circuit scale as much as possible.

(第1の実施の形態)
図1は、本発明の第1の実施の形態に従った映像合成装置の構成を概略的に示すブロック図である。図2は、図1の映像合成装置を適用したテレビ会議システムの構成を概略的に示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram schematically showing a configuration of a video composition device according to the first embodiment of the present invention. FIG. 2 is a block diagram schematically showing the configuration of a video conference system to which the video composition apparatus of FIG. 1 is applied.

図2において、端末12(1)〜12(4)は、図示しないネットワークを介して、映像合成装置11に接続されている。端末12(1)〜12(4)は、映像信号(入力映像)13(1)〜13(4)を生成して映像合成装置11に伝送する。また、端末12(1)〜12(4)は、映像合成装置11において映像合成のために用いられる映像配置情報(レイアウト情報)14(1)〜14(4)を映像合成装置11に伝送する。端末12(1)〜12(4)は、レイアウトの変更の都度、新たに映像配置情報を生成して映像合成装置11に伝送する。映像合成装置11は、映像配置情報14(1)〜14(4)に基づいて映像信号13(1)〜13(4)を合成して各端末12(1)〜12(4)用に合成映像を生成し、端末12(1)〜12(4)に合成映像信号(出力映像)15(1)〜15(4)を伝送する。つまり、この映像合成装置11は映像信号を4つ入力し、これらの映像信号を合成した合成映像信号を4つ生成及び出力する。映像信号は例えばITU-R(International Telecommunication Union-Radiocommunication) BT.656仕様のデジタル信号で送られ、映像信号は画素値情報を含む。映像フレームの同期を取るため所定のタイミングで同期コードが映像信号に挿入される。同期コードはFF、00、00、XXのセットであり、XXにはフレーム上の位置を示すコードが入る。   In FIG. 2, terminals 12 (1) to 12 (4) are connected to the video composition device 11 via a network (not shown). The terminals 12 (1) to 12 (4) generate video signals (input video) 13 (1) to 13 (4) and transmit them to the video synthesizer 11. Further, the terminals 12 (1) to 12 (4) transmit the video arrangement information (layout information) 14 (1) to 14 (4) used for video synthesis in the video synthesis device 11 to the video synthesis device 11. . Each time the layout is changed, the terminals 12 (1) to 12 (4) newly generate video arrangement information and transmit it to the video composition device 11. The video synthesizing device 11 synthesizes the video signals 13 (1) to 13 (4) based on the video arrangement information 14 (1) to 14 (4) and synthesizes them for the terminals 12 (1) to 12 (4). The video is generated, and the composite video signals (output video) 15 (1) to 15 (4) are transmitted to the terminals 12 (1) to 12 (4). In other words, the video synthesizing apparatus 11 receives four video signals, and generates and outputs four synthesized video signals obtained by synthesizing these video signals. For example, the video signal is transmitted as a digital signal of ITU-R (International Telecommunication Union-Radiocommunication) BT.656 specification, and the video signal includes pixel value information. In order to synchronize the video frame, a synchronization code is inserted into the video signal at a predetermined timing. The synchronization code is a set of FF, 00, 00, and XX, and XX contains a code indicating a position on the frame.

なお、映像信号の伝送の際には実際には図示しないMPEGデコーダ・エンコーダなどを用いて圧縮伝送してもよい。すなわち、映像を送信する装置側でまず映像信号をMPEGストリーミングにエンコードし、そのMPEGストリーミングを受信した装置側でデコードして映像信号を復元する。この場合、前記に従うと映像合成装置でデコードされた端末からの入力映像信号と、これからエンコードする端末への出力映像信号が例えばBT.656仕様であるとする。   Note that when transmitting a video signal, it may actually be compressed and transmitted using an MPEG decoder / encoder (not shown). In other words, the video signal is first encoded into MPEG streaming on the device that transmits the video, and the video signal is restored by decoding on the device that has received the MPEG streaming. In this case, according to the above, it is assumed that the input video signal from the terminal decoded by the video synthesizer and the output video signal to the terminal to be encoded are BT.656 specifications, for example.

図1において、映像合成装置11は、解析部21(1)〜21(4)、可変縮小部22(1−1)〜22(1−4)、22(2−1)〜22(2−4)、22(3−1)〜22(3−4)、22(4−1)〜22(4−4)、RAM制御部23、RAM24、要求部25(1)〜25(4)、生成部26(1)〜26(4)及び映像配置情報管理部27を備える。可変縮小部は書込要求手段を含む。映像配置情報管理部27は倍率指定手段を含む。   In FIG. 1, the video composition device 11 includes an analysis unit 21 (1) to 21 (4), a variable reduction unit 22 (1-1) to 22 (1-4), and 22 (2-1) to 22 (2- 4), 22 (3-1) to 22 (3-4), 22 (4-1) to 22 (4-4), RAM control unit 23, RAM 24, request units 25 (1) to 25 (4), Generation units 26 (1) to 26 (4) and a video arrangement information management unit 27 are provided. The variable reduction unit includes write request means. The video arrangement information management unit 27 includes a magnification designation unit.

解析部21(1)〜21(4)は、入力された映像信号13(1)〜13(4)の同期コードを解析し、現在の画素データの入力映像上での座標を求める。   The analysis units 21 (1) to 21 (4) analyze the synchronization codes of the input video signals 13 (1) to 13 (4) and obtain the coordinates of the current pixel data on the input video.

映像配置情報管理部27は、映像配置情報14(1)〜14(4)に基づき、各端末12(1)〜12(4)用の合成映像のレイアウトを管理する。映像配置情報管理部27は、映像配置情報14(1)〜14(4)に基づき、各入力映像13(1)〜13(4)の倍率(本例では縮小率)を計算し、計算した縮小率を可変縮小部22(1−1)〜22(1−4)、22(2−1)〜22(2−4)、22(3−1)〜22(3−4)、22(4−1)〜22(4−4)に通知する。映像配置情報が更新された場合は、その都度、更新後の映像配置情報に基づいて、各入力映像13(1)〜13(4)の縮小率を計算し、可変縮小部に通知する。   The video layout information management unit 27 manages the layout of the composite video for the terminals 12 (1) to 12 (4) based on the video layout information 14 (1) to 14 (4). The video arrangement information management unit 27 calculates the magnification (reduction rate in this example) of each input video 13 (1) to 13 (4) based on the video arrangement information 14 (1) to 14 (4) and calculates The reduction rate is changed to the variable reduction units 22 (1-1) to 22 (1-4), 22 (2-1) to 22 (2-4), 22 (3-1) to 22 (3-4), 22 ( 4-1) to 22 (4-4). When the video layout information is updated, the reduction rate of each input video 13 (1) to 13 (4) is calculated based on the updated video layout information and notified to the variable reduction unit.

可変縮小部22(1−1)〜22(1−4)、22(2−1)〜22(2−4)、22(3−1)〜22(3−4)、22(4−1)〜22(4−4)は、各々複数の縮小率で入力映像を縮小可能に構成される。可変縮小部22(1−1)〜22(1−4)、22(2−1)〜22(2−4)、22(3−1)〜22(3−4)、22(4−1)〜22(4−4)は、映像配置情報管理部27から指定された縮小率に基づき、入力映像13(1)〜13(4)を縮小する。   Variable reduction units 22 (1-1) to 22 (1-4), 22 (2-1) to 22 (2-4), 22 (3-1) to 22 (3-4), 22 (4-1) ) To 22 (4-4) are configured such that the input video can be reduced at a plurality of reduction ratios. Variable reduction units 22 (1-1) to 22 (1-4), 22 (2-1) to 22 (2-4), 22 (3-1) to 22 (3-4), 22 (4-1) ) To 22 (4-4) reduce the input videos 13 (1) to 13 (4) based on the reduction rate specified by the video arrangement information management unit 27.

例えば、可変縮小部22(1−1)、22(1−2)、22(1−3)、22(1−4)は映像配置情報管理部27から指定された縮小率によって、出力映像15(1)〜15(4)上に配置される入力映像13(1)を縮小する。また、可変縮小部22(1−1)、22(2−1)、22(3−1)、22(4−1)はそれぞれ映像配置情報管理部27から指定された縮小率によって出力映像15(1)上に配置される入力映像13(1)〜13(4)を縮小する。   For example, the variable reduction units 22 (1-1), 22 (1-2), 22 (1-3), and 22 (1-4) output video 15 according to the reduction rate designated by the video arrangement information management unit 27. (1) -15 (4) The input video 13 (1) arranged on the screen is reduced. In addition, the variable reduction units 22 (1-1), 22 (2-1), 22 (3-1), and 22 (4-1) output video 15 according to the reduction rate specified by the video arrangement information management unit 27. (1) The input images 13 (1) to 13 (4) arranged on the top are reduced.

可変縮小部22(1−1)〜22(1−4)、22(2−1)〜22(2−4)、22(3−1)〜22(3−4)、22(4−1)〜22(4−4)はそれぞれ、前段の解析部21(1)〜21(4)で解析した座標情報を元に入力映像13(1)〜13(4)を縮小し、RAM24における所定領域(各可変縮小部用のフレームバッファ)への縮小映像(画素値情報)の書込みをRAM制御部23に要求する。可変縮小部は例えば映像変倍手段に相当する。   Variable reduction units 22 (1-1) to 22 (1-4), 22 (2-1) to 22 (2-4), 22 (3-1) to 22 (3-4), 22 (4-1) ) To 22 (4-4) respectively reduce the input images 13 (1) to 13 (4) based on the coordinate information analyzed by the analysis units 21 (1) to 21 (4) in the previous stage and The RAM control unit 23 is requested to write the reduced video (pixel value information) to the area (frame buffer for each variable reduction unit). The variable reduction unit corresponds to, for example, a video scaling unit.

RAM制御部23は、映像信号を記憶するRAM24への書込み及びRAM24からの読出しを制御する。RAM制御部23は、可変縮小部22(1−1)〜22(1−4)、22(2−1)〜22(2−4)、22(3−1)〜22(3−4)、22(4−1)〜22(4−4)から受け取った画素値情報をRAM24における各可変縮小部から指定された領域に書き込んだり、要求部25(1)〜25(4)からの読出し要求に基づいてRAM24から画素値情報を読み出して生成部26(1)〜26(4)に出力したりする。RAM制御部は、例えば書込要求手段および読出制御手段に相当する。   The RAM control unit 23 controls writing to the RAM 24 that stores the video signal and reading from the RAM 24. The RAM control unit 23 includes variable reduction units 22 (1-1) to 22 (1-4), 22 (2-1) to 22 (2-4), and 22 (3-1) to 22 (3-4). , 22 (4-1) to 22 (4-4), the pixel value information received from the variable reduction units in the RAM 24 is written to the designated area, or read from the request units 25 (1) to 25 (4). Based on the request, the pixel value information is read from the RAM 24 and output to the generation units 26 (1) to 26 (4). The RAM control unit corresponds to, for example, a write request unit and a read control unit.

生成部26(1)〜26(4)はそれぞれ、RAM制御部23から受け取った画素値情報に基づき、映像信号13(1)〜13(4)を合成した合成映像信号を生成し、生成した合成映像信号を適宜、同期信号やブランクを挿入しつつ出力する。同時に、生成部26(1)〜26(4)は、現在出力している合成映像信号の映像フレーム内における座標を管理し、現在出力している合成映像信号に基づき、次に読み出すべき座標情報を要求部25(1)〜25(4)に通知する。   The generation units 26 (1) to 26 (4) generate and generate synthesized video signals by combining the video signals 13 (1) to 13 (4) based on the pixel value information received from the RAM control unit 23. The composite video signal is output while inserting a synchronization signal and a blank as appropriate. At the same time, the generators 26 (1) to 26 (4) manage the coordinates in the video frame of the currently output composite video signal, and coordinate information to be read out next based on the currently output composite video signal. To the requesting units 25 (1) to 25 (4).

要求部25(1)〜25(4)は、生成部26(1)〜26(4)からの座標情報をもとに、映像配置情報管理部27内の映像配置情報を参照して、RAM制御部23に対して、次に読み出すべき画素値情報の読出し要求を出す。RAM制御部23は、要求された画素値情報をRAM24から読み出して生成部26(1)〜26(4)に渡す。   The request units 25 (1) to 25 (4) refer to the video arrangement information in the video arrangement information management unit 27 based on the coordinate information from the generation units 26 (1) to 26 (4), and A request for reading pixel value information to be read next is issued to the control unit 23. The RAM control unit 23 reads the requested pixel value information from the RAM 24 and passes it to the generation units 26 (1) to 26 (4).

RAM24は、可変縮小部22(1−1)〜22(1−4)、22(2−1)〜22(2−4)、22(3−1)〜22(3−4)、22(4−1)〜22(4−4)の各々に対応したフレームバッファを有する。即ち、RAM24は、これらの可変縮小部に対応して、計4×4=16個のフレームバッファを有する。各フレームバッファへは、例えばその先頭アドレスから順次、画素値情報が書き込まれ、入力映像のフレームが代わるごとに、再度、先頭アドレスから上書きされる。なお、いわゆるダブルバッファ構造を採用した場合は、各フレームバッファの容量はその2倍になる。   The RAM 24 includes variable reduction units 22 (1-1) to 22 (1-4), 22 (2-1) to 22 (2-4), 22 (3-1) to 22 (3-4), 22 ( 4-1) to 22 (4-4) each have a frame buffer. That is, the RAM 24 has a total of 4 × 4 = 16 frame buffers corresponding to these variable reduction units. For example, pixel value information is sequentially written into each frame buffer from the head address, and is overwritten again from the head address every time the frame of the input video is changed. If a so-called double buffer structure is adopted, the capacity of each frame buffer is doubled.

なお、前記したRAM制御部は同時に複数の要求を受ける場合があるため、要求されてから実行するまで実際にはタイムラグが存在する場合がある(なお、複数の要求を受ける場合は要求を受けた順に順次処理を行うよう構成してもよい。あるいは、予め定められた優先順位の順に処理を行うよう構成してもよい)。よって、各可変縮小部とRAM制御部との間、または、RAM制御部と各生成部との間、またはこれらの両方に、データを一時的に保持するバッファを設けてもよい。   In addition, since the above-mentioned RAM control unit may receive a plurality of requests at the same time, there may actually be a time lag from when it is requested until it is executed. The processing may be performed sequentially, or the processing may be performed in the order of predetermined priority). Therefore, a buffer that temporarily holds data may be provided between each variable reduction unit and the RAM control unit, between the RAM control unit and each generation unit, or both.

以上のような映像合成装置による詳細な処理の流れを以下に説明する。   The detailed flow of processing by the video composition apparatus as described above will be described below.

図1の左側の入力系において、映像信号として、27MHzのクロックにより、8ビットパラレルの画素値情報が、画面の左上の画素から画面の右下の画素まで順次、解析部21(1)〜21(4)に入力される。また、フレームにおける各ラインの開始位置と終了位置では所定の同期コードが映像信号に挿入され、さらにフレームの開始位置ではそれを示す同期コードが映像信号に挿入される。   In the input system on the left side of FIG. 1, 8-bit parallel pixel value information is sequentially generated from the upper left pixel of the screen to the lower right pixel of the screen as a video signal by a 27 MHz clock. Input to (4). Further, a predetermined synchronization code is inserted into the video signal at the start position and end position of each line in the frame, and a synchronization code indicating it is further inserted into the video signal at the start position of the frame.

解析部21(1)〜21(4)は、内部でX座標値(例えば0〜1715(水平ブランクを含む))とY座標値(例えば0〜524(垂直ブランクを含む))とを管理する。解析部21(1)〜21(4)は、ピクセルデータが来るたびにX座標値を1ずつ増加し、X座標値が最大値に達したら再び0からカウントするとともに、Y座標値を1増加する。解析部21(1)〜21(4)は、上述の同期コードを検知したとき、この同期コードがフレームの開始位置を示すものであれば、内部で管理しているX座標値とY座標値とをリセットすることでフレーム同期をとる。   The analysis units 21 (1) to 21 (4) manage X coordinate values (for example, 0 to 1715 (including horizontal blanks)) and Y coordinate values (for example, 0 to 524 (including vertical blanks)) inside. . The analysis units 21 (1) to 21 (4) increment the X coordinate value by 1 every time pixel data arrives, and when the X coordinate value reaches the maximum value, count again from 0 and increase the Y coordinate value by 1. To do. When the analysis unit 21 (1) to 21 (4) detects the above-described synchronization code, if the synchronization code indicates the start position of the frame, the X coordinate value and the Y coordinate value managed internally are analyzed. Frame synchronization is achieved by resetting.

可変縮小部22(1−1)〜22(1−4)、22(2−1)〜22(2−4)、22(3−1)〜22(3−4)、22(4−1)〜22(4−4)は、例えば1/1縮小のときは、現在の座標位置がブランク領域である場合は、画素値情報は無効であるためこの画素値情報を破棄する。現在の座標位置がブランク領域でない場合は、画素値情報をそのままRAM制御部23に渡し、さらにこの画素値情報を書き込むべきアドレスとして、この画素値情報の座標に対応する1/1縮小用のフレームバッファにおけるアドレスを指定する。1/2縮小の場合は、同じく現在の座標位置がブランク領域でなければ、画素値情報を適宜平均化処理することにより、入力映像を縦方向及び横方向に1/2縮小した情報をRAM制御部23に渡し、先と同様に、書き込むべきアドレスもRAM制御部23に渡す。他の縮小率の場合も同様に適宜入力映像を縮小しつつRAM制御部23に渡す。   Variable reduction units 22 (1-1) to 22 (1-4), 22 (2-1) to 22 (2-4), 22 (3-1) to 22 (3-4), 22 (4-1) ) To 22 (4-4), for example, in the case of 1/1 reduction, if the current coordinate position is a blank area, the pixel value information is invalid and is discarded. If the current coordinate position is not a blank area, the pixel value information is directly passed to the RAM control unit 23, and a 1/1 reduction frame corresponding to the coordinates of the pixel value information is used as an address to which the pixel value information is to be written. Specifies an address in the buffer. In the case of 1/2 reduction, if the current coordinate position is not a blank area, the pixel value information is appropriately averaged to perform RAM control on information obtained by reducing the input video by 1/2 in the vertical and horizontal directions. The address to be written is also transferred to the RAM control unit 23 in the same manner as described above. Similarly, in the case of other reduction ratios, the input video is appropriately reduced and transferred to the RAM control unit 23.

例えば、出力映像15(1)に対して、図3のような映像配置が要求されている場合、入力映像13(1)は1/2縮小されるため、可変縮小部22(1−1)は、1/2縮小を実行する。RAM制御部23は、可変縮小部22(1−1)から適宜受け取る画素値情報を、可変縮小部22(1−1)から指定されたRAM24におけるアドレスに書き込む。以上のことは他の入力映像13(2)〜13(4)に関しても同様である。   For example, when the video layout as shown in FIG. 3 is requested for the output video 15 (1), the input video 13 (1) is reduced by 1/2, so that the variable reduction unit 22 (1-1) Performs 1/2 reduction. The RAM control unit 23 writes pixel value information appropriately received from the variable reduction unit 22 (1-1) to an address in the RAM 24 designated by the variable reduction unit 22 (1-1). The same applies to the other input images 13 (2) to 13 (4).

一方、図1の右側の出力系において、入力系と同じくBT.656信号を生成するため、生成部26(1)〜26(4)では、X座標値とY座標値とを管理し、解析部21(1)〜21(4)と同様に、27MHzのクロックによって、その値を1ずつ更新していく。   On the other hand, in the output system on the right side of FIG. 1, in order to generate the BT.656 signal as in the input system, the generators 26 (1) to 26 (4) manage and analyze the X coordinate value and the Y coordinate value. Similar to the units 21 (1) to 21 (4), the value is updated one by one using a 27 MHz clock.

ここで、前述した図3の映像配置が要求されている場合、要求部25(1)は、生成部26(1)から指定された座標値に基づき、座標値が映像配置の左上の位置であれば1/2縮小された入力映像13(1)、右上であれば1/2縮小された入力映像13(2)、左下であれば1/2縮小された入力映像13(3)、右下であれば1/2縮小された入力映像13(4)における座標のアドレスをRAM制御部23に指定する。RAM制御部23は、要求部25(1)から指定されたRAM24におけるアドレスから画素値情報を読み込み、読み取った画素値情報を生成部26(1)に渡す。   Here, when the video layout of FIG. 3 described above is requested, the request unit 25 (1), based on the coordinate value specified by the generation unit 26 (1), the coordinate value is at the upper left position of the video layout. If there is an input video 13 (1) reduced by 1/2, if the upper right, input video 13 (2) reduced by 1/2, if lower left, input video 13 (3) reduced by 1/2, right If it is below, the address of the coordinate in the input video 13 (4) reduced by 1/2 is designated to the RAM control unit 23. The RAM control unit 23 reads the pixel value information from the address in the RAM 24 designated by the request unit 25 (1), and passes the read pixel value information to the generation unit 26 (1).

生成部26(1)〜26(4)は、受け取った画素値情報を適宜ブランクや同期コードを挿入しつつITU-R BT.656信号として27MHzのクロックにより出力する。   The generation units 26 (1) to 26 (4) output the received pixel value information as a ITU-R BT.656 signal with a 27 MHz clock while appropriately inserting blanks or synchronization codes.

以上のように、本実施の形態によれば、4つの入力映像を4つのパターンで合成して、4つの合成映像を生成及び出力することが可能となる。   As described above, according to the present embodiment, it is possible to generate and output four synthesized videos by synthesizing four input videos in four patterns.

また、各可変縮小部はそれぞれ対応する入力映像に同期して処理を行い各要求部はそれぞれ対応する出力映像に同期して処理を行えばよいため、即ち、可変縮小部と要求部とは互いには非同期であり連携をする必要が無いため、特開平5-103324号公報に述べられた技術に比べて、単純なアルゴリズムが実現され、よって、より単純で回路規模の小さい回路を実現できる。   In addition, each variable reduction unit may perform processing in synchronization with the corresponding input video, and each request unit may perform processing in synchronization with the corresponding output video. That is, the variable reduction unit and the request unit are mutually connected. Since these are asynchronous and do not need to be linked, a simple algorithm is realized as compared with the technique described in Japanese Patent Laid-Open No. 5-103324, and thus a simpler circuit with a smaller circuit scale can be realized.

なお、要求部は、図10のように1つ(要求部25)で複数の出力映像(出力映像15(1)〜15(4))に対する画素値情報の読み出し要求を生成してDRAM制御部に要求する形態でも良い。あくまで複数の出力映像に対応する要求が行われることがポイントである。   The request unit generates a pixel value information read request for a plurality of output videos (output videos 15 (1) to 15 (4)) with one (request unit 25) as shown in FIG. It may be in the form required by The point is that a request corresponding to a plurality of output videos is made.

上述した本実施の形態では、4つの映像信号を入力して4つの合成映像を生成する例を示したが、入力する映像信号の数は4つである必要は無く、また生成する合成映像の数も4つに限定されない。映像信号の数と合成映像の数とは、複数であればこれより多くても少なくてもよく、また、これらの数が互いに異なってもよい。また、入力映像信号及び出力映像信号の規格はITU-R BT.656でなくともよい。また、本実施の形態では、縮小処理として単純に画素値の平均をとる方法を用いたが、縮小アルゴリズム自体は本実施の形態の本質とは関係ないため、何らかのフィルタを使う方法などを用いても良い。また、RAMとRAM制御部とは、本実施の形態のように、各々単一のデバイスであることの他、可変縮小部の数や出力の数(映像配置情報の数)などに応じて、各々複数の要素に分割されてもよく、本発明はこれを含む。また、映像配置は、配置パターンによっては一部の入力映像のみが配置されてもよく、さらには入力映像もその一部が切り取られて配置されても良い。入力映像同士が重なり合って配置されても良い。映像が配置されていない領域は背景色が表示されても良い。映像に枠が表示されていても良い。また映像を反転すること、あるいは複数の映像を透過的に重ね合わせて合成を行うことなどを含んでもよい。また、図1における解析部、可変縮小部、映像配置情報管理部、要求部および生成部による処理は、通常のプログラミング技法に基づいて生成したプログラムをコンピュータに実行させることによって実現してもよいし、ハードウェア的に実現してもよい。本段落で述べたことは後述する実施の形態でも同様に適用される。   In the above-described embodiment, an example in which four video signals are input to generate four composite videos has been described. However, the number of input video signals is not necessarily four, and the generated composite video The number is not limited to four. The number of video signals and the number of synthesized videos may be more or less as long as they are plural, and these numbers may be different from each other. The standard of the input video signal and the output video signal may not be ITU-R BT.656. In this embodiment, a method of simply averaging the pixel values is used as the reduction process. However, since the reduction algorithm itself is not related to the essence of this embodiment, a method using some kind of filter is used. Also good. Further, the RAM and the RAM control unit are each a single device as in this embodiment, and in addition to the number of variable reduction units and the number of outputs (the number of video arrangement information), Each may be divided into a plurality of elements, and the present invention includes this. Also, depending on the arrangement pattern, only a part of the input video may be arranged, and the input video may be arranged by cutting out a part of the input video. The input images may be arranged so as to overlap each other. A background color may be displayed in an area where no video is arranged. A frame may be displayed on the video. Further, it may include reversing the video, or combining a plurality of videos transparently. The processing by the analysis unit, variable reduction unit, video arrangement information management unit, request unit, and generation unit in FIG. 1 may be realized by causing a computer to execute a program generated based on a normal programming technique. It may be realized in hardware. What has been described in this paragraph also applies to the embodiments described later.

(第2の実施の形態)
図4は、本発明の第2の実施の形態に従った映像合成装置の構成を概略的に示すブロック図である。
(Second Embodiment)
FIG. 4 is a block diagram schematically showing a configuration of a video composition device according to the second embodiment of the present invention.

本実施の形態が第1の実施の形態と異なる点は、図1の可変縮小部22(1−1)〜22(1−4)、22(2−1)〜22(2−4)、22(3−1)〜22(3−4)、22(4−1)〜22(4−4)が、固定倍率の縮小を行う固定縮小部28(1−1)〜28(1−4)、28(2−1)〜28(2−4)、28(3−1)〜28(3−4)、28(4−1)〜28(4−4)になった点にある。   This embodiment is different from the first embodiment in that the variable reduction units 22 (1-1) to 22 (1-4), 22 (2-1) to 22 (2-4) in FIG. 22 (3-1) to 22 (3-4) and 22 (4-1) to 22 (4-4) are fixed reduction units 28 (1-1) to 28 (1-4) that reduce the fixed magnification. ), 28 (2-1) to 28 (2-4), 28 (3-1) to 28 (3-4), and 28 (4-1) to 28 (4-4).

固定縮小部28(1−1)〜28(1−4)、28(2−1)〜28(2−4)、28(3−1)〜28(3−4)、28(4−1)〜28(4−4)は一定の縮小率によってのみ縮小を行い、映像配置情報管理部27から縮小率の指定は受けない。固定縮小部28(1−1)〜28(1−4)、28(2−1)〜28(2−4)、28(3−1)〜28(3−4)、28(4−1)〜28(4−4)は、動的に変化する映像配置情報とは関係なく、常に同一の縮小率で入力映像を縮小して画素値情報をRAM制御部23を介してRAM24に書き込む。本例では、固定倍率として1/1と1/2と1/3と1/4との4つが与えられ、RAM24上には計4×4=16個のフレームバッファが存在する(いわゆるダブルバッファの場合はその2倍)。   Fixed reduction units 28 (1-1) to 28 (1-4), 28 (2-1) to 28 (2-4), 28 (3-1) to 28 (3-4), 28 (4-1) ) To 28 (4-4) are reduced only by a fixed reduction rate, and the reduction rate is not designated from the video arrangement information management unit 27. Fixed reduction units 28 (1-1) to 28 (1-4), 28 (2-1) to 28 (2-4), 28 (3-1) to 28 (3-4), 28 (4-1) ) To 28 (4-4), regardless of the dynamically changing image arrangement information, the input image is always reduced at the same reduction rate, and the pixel value information is written into the RAM 24 via the RAM control unit 23. In this example, four fixed rates of 1/1, 1/2, 1/3, and 1/4 are given, and there are a total of 4 × 4 = 16 frame buffers on the RAM 24 (so-called double buffer). In the case of, it is twice that).

その他の構成及び動作は第1の実施の形態と同様である。   Other configurations and operations are the same as those in the first embodiment.

すなわち、要求部25(1)〜25(4)は、映像配置情報管理部27内の映像配置情報と、生成部26(1)〜26(4)から指定される座標情報とに基づいて、RAM24におけるフレームバッファからの画素値情報の読出し要求をRAM制御部23に行う。RAM制御部23はRAM24から画素値情報を読み出して生成部26(1)〜26(4)に出力する。例えば前述した図3のような映像配置の場合、要求部25(1)〜25(4)は、生成部26(1)〜26(4)から指定された座標値が、映像配置の左上の位置であれば1/2縮小された入力映像13(1)、右上であれば1/2縮小された入力映像13(2)、左下であれば1/2縮小された入力映像13(3)、右下であれば1/2縮小された入力映像13(4)の座標のアドレスをRAM制御部23に指定する。RAM制御部23は、要求部25(1)〜25(4)から指定されたRAM24におけるアドレスから画素値情報を読み込み、読み取った画素値情報を生成部26(1)〜26(4)に渡す。   That is, the request units 25 (1) to 25 (4) are based on the video arrangement information in the video arrangement information management unit 27 and the coordinate information specified by the generation units 26 (1) to 26 (4). A request for reading pixel value information from the frame buffer in the RAM 24 is sent to the RAM control unit 23. The RAM control unit 23 reads out the pixel value information from the RAM 24 and outputs it to the generation units 26 (1) to 26 (4). For example, in the case of the video layout as shown in FIG. 3 described above, the request units 25 (1) to 25 (4) have the coordinate values designated by the generation units 26 (1) to 26 (4) at the upper left of the video layout. The input image 13 (1) reduced by 1/2 if it is a position, the input image 13 (2) reduced by 1/2 if it is the upper right, and the input image 13 (3) reduced by 1/2 if it is the lower left. If it is the lower right, the address of the coordinate of the input video 13 (4) reduced by 1/2 is designated to the RAM control unit 23. The RAM control unit 23 reads pixel value information from an address in the RAM 24 designated by the request units 25 (1) to 25 (4), and passes the read pixel value information to the generation units 26 (1) to 26 (4). .

ここで本実施の形態による効果について第1の実施の形態及び従来技術と比較して述べる。   Here, the effect of this embodiment will be described in comparison with the first embodiment and the prior art.

まず、第1及び第2の実施の形態では入力映像の数が4つであるが、入力映像の数をN個とする。また、第2の実施の形態では、固定縮小部を1/1と1/2と1/3と1/4との4つとしたが、固定縮小部の数は複数であればこれより多くても少なくてもよくこれをM個とする。但し、1/1縮小部は実質的に縮小処理をしていないことから、固定縮小部の総数は実質的に(M−1)×N個となる。これに対し、上記特開平5−103324号公報又は第1の実施の形態では、同じN個の入力映像、N個の出力映像を実現する場合、可変縮小部はN×N個必要になる。これらの比を取ると(M−1)/Nである。   First, in the first and second embodiments, the number of input images is four, but the number of input images is N. In the second embodiment, four fixed reduction units are used, ie, 1/1, 1/2, 1/3, and 1/4. However, if there are a plurality of fixed reduction units, the number is larger than this. The number may be less, and this number is M. However, since the 1/1 reduction unit does not substantially perform reduction processing, the total number of fixed reduction units is substantially (M−1) × N. On the other hand, in the above-mentioned Japanese Patent Laid-Open No. 5-103324 or the first embodiment, N × N variable reduction units are required to realize the same N input images and N output images. Taking these ratios, it is (M-1) / N.

ここで、現実的なテレビ会議のMCUや監視カメラの画像分割ユニットを考慮すると、Nの値は通常4以上であることが多い。一方、Mの値に関しては、合成画面上に並べる入力映像の数が一方向でせいぜい4つ程度(すなわち画面上にはせいぜい4×4=16個程度)であることから、縮小率1/1、1/2、1/3、1/4、2/3、3/4(計6つ)がよく利用され、その個数は1/1を除いてせいぜい5つ程度である。よって、N≧4、M=6とした場合、(M−1)/N≦5/4≒1となり、固定縮小部の数は、可変縮小部の数と比べてせいぜい同じかそれ以下である。   Here, in consideration of a realistic video conference MCU and an image dividing unit of a surveillance camera, the value of N is usually 4 or more in many cases. On the other hand, with regard to the value of M, the number of input images arranged on the composite screen is about 4 in one direction (that is, about 4 × 4 = 16 on the screen at most), so the reduction rate is 1/1. , 1/2, 1/3, 1/4, 2/3, 3/4 (total of 6) are often used, and the number of them is at most 5 except 1/1. Therefore, when N ≧ 4 and M = 6, (M−1) / N ≦ 5 / 4≈1, and the number of fixed reduction parts is at most equal to or less than the number of variable reduction parts. .

しかし、一般に、縮小率が固定の固定縮小部に比べ、縮小率が可変の可変縮小部はあらゆる縮小率に対応しなければならないため、その回路規模は固定縮小部に比べて遥かに大きくなる。よって(M−1)がNと同程度である場合、本実施の形態により、縮小部全体の回路規模を、第1の実施の形態及び従来技術に比べて遥かに小さくできる。   However, in general, a variable reduction unit with a variable reduction rate must cope with any reduction rate as compared with a fixed reduction unit with a fixed reduction rate, so that the circuit scale is much larger than that with a fixed reduction unit. Therefore, when (M−1) is about the same as N, the circuit scale of the entire reduction unit can be made much smaller than that of the first embodiment and the prior art by this embodiment.

(第3の実施の形態)
第1及び第2の実施の形態において図1及び図4の要求部は映像配置情報を用いてRAM制御部への読出し要求を行うことを説明したが、実際には、図1及び図4の要求部は、映像配置情報から生成される要求情報を用いて、RAM制御部23への読出し要求を行う。従って、要求部が読出し要求を行うためには、あらかじめ上記要求情報を取得しておく必要がある。この要求情報は映像配置情報管理部27によって生成される。このため映像配置情報管理部27は、例えば、図5に示すように、映像配置情報14(1)〜14(4)に基づいて要求情報を生成する要求情報生成部31(1)〜31(4)を備える。
(Third embodiment)
In the first and second embodiments, it has been described that the request unit of FIGS. 1 and 4 makes a read request to the RAM control unit using the video arrangement information. In practice, the request unit of FIGS. The request unit makes a read request to the RAM control unit 23 using request information generated from the video arrangement information. Therefore, in order for the request unit to make a read request, it is necessary to obtain the request information in advance. This request information is generated by the video arrangement information management unit 27. Therefore, for example, as shown in FIG. 5, the video arrangement information management unit 27 generates request information based on the video arrangement information 14 (1) to 14 (4), and requests information generation units 31 (1) to 31 ( 4).

ここで、映像配置情報と要求情報とについて間単に説明する。   Here, the video arrangement information and the request information will be briefly described.

映像配置情報は、入力映像の配置を規定する情報であり、一般には「この入力映像を出力映像上のこの位置に配置する」という形式であるのが自然である。具体的には、映像の有効部分(ブランクを除いた部分)の座標をX = 0〜720、Y = 0〜480とすると、図3の合成映像の場合、入力映像13(1)の1/2縮小映像を(0、0)に、入力映像13(2)の1/2縮小映像を(360、0)に、入力映像13(3)の1/2縮小映像を(0、240)に、入力映像13(4)の1/2縮小映像を(360、240)に、という情報になる。これをサブセット情報(入力映像番号、x座標、y座標、倍率)のセットとして表現した場合、(1、0、0、1/2)(2、360、0、1/2)・・・となる。なお、入力映像番号1は入力映像13(1)、入力映像番号2は入力映像13(2)、・・・に相当する。   The video layout information is information that defines the layout of the input video, and is generally natural in the form of “place this input video at this position on the output video”. Specifically, assuming that the coordinates of the effective part of the video (the part excluding the blank) are X = 0 to 720 and Y = 0 to 480, in the case of the composite video in FIG. 3, 1 / of the input video 13 (1). 2 Reduced video to (0, 0), 1/2 reduced video of input video 13 (2) to (360, 0), 1/2 reduced video of input video 13 (3) to (0, 240) Then, the information is a half-reduced video of the input video 13 (4) to (360, 240). When this is expressed as a set of subset information (input video number, x coordinate, y coordinate, magnification), (1, 0, 0, 1/2) (2, 360, 0, 1/2). Become. Input video number 1 corresponds to input video 13 (1), input video number 2 corresponds to input video 13 (2),.

一方、要求情報は、要求部が生成部から受け取った現在の座標を元にRAM制御部23への要求内容を決定するためのもので、「出力映像上のこの位置にはこの入力映像を配置する」という形式であることが望ましい。つまり、座標(0、0)には入力映像13(1)の1/2縮小映像を、座標(360、0)には入力映像13(2)の1/2縮小映像を、座標(0、240)には入力映像13(3)の1/2縮小映像を、座標(360、240)には入力映像13(4)の1/2縮小映像を、という情報であり、この情報があれば要求部は現在の座標から要求すべき入力映像を指定して得ることが出来る。より詳細には、要求すべき映像のRAM上のアドレスを指定する。このRAM上のアドレスへの対応や変換処理は割愛する。   On the other hand, the request information is for determining a request content to the RAM control unit 23 based on the current coordinates received from the generation unit by the request unit. “The input video is arranged at this position on the output video. It is desirable that the format is “Yes”. That is, the coordinate (0, 0) is a 1/2 reduced image of the input image 13 (1), the coordinate (360, 0) is a 1/2 reduced image of the input image 13 (2), and the coordinates (0, 0). 240) is a 1/2 reduced image of the input image 13 (3) and coordinates (360, 240) are 1/2 reduced images of the input image 13 (4). The request unit can be obtained by designating an input video to be requested from the current coordinates. More specifically, an address on the video RAM to be requested is designated. The correspondence to the addresses on the RAM and the conversion process are omitted.

なお、この配置例は単純な例であるが、例えば各入力映像が重なり合って配置される場合もありうる。しかし、その場合は要求情報生成部が重なりを分析し、重なり合った領域はその最上位の入力映像が配置映像となるだけであり、それ以外の処理については同様である。また、どの映像も配置されない領域が存在する場合もありうるが、その場合は所定の背景色や背景映像がその領域に配置されるだけであり、やはりそれ以外の処理については同様である。   Note that this arrangement example is a simple example, but there may be cases where, for example, the input images are arranged so as to overlap each other. However, in that case, the request information generation unit analyzes the overlap, and the overlapped area is such that the highest-order input video only becomes the arrangement video, and the other processes are the same. In addition, there may be a region where no video is arranged. In this case, only a predetermined background color or background video is arranged in the region, and the other processes are the same.

ここで、要求部は、生成部による映像フレームの生成開始前に、即ち、RAM制御部23に対して読出し要求を行う前に、予め上記要求情報(又は要求情報の少なくとも一部)を内部にセットしておく必要がある。そこで、図5の要求情報生成部31(1)〜31(4)は、要求部25(1)〜25(4)が動作していない期間、例えば垂直ブランク期間の間に、映像配置情報15(1)〜15(4)から要求情報を生成する。そして、要求部25(1)〜25(4)は、この垂直ブランク期間の間に今回の映像フレームで必要な要求情報を要求情報生成部31(1)〜31(4)から受け取って内部にセットする。要求部25(1)〜25(4)が動作しないブランク期間に要求情報を生成し、映像フレームの有効期間(非ブランク期間)にこの要求情報を使用することを繰り返す。   Here, the request unit previously stores the request information (or at least part of the request information) in advance before starting the generation of the video frame by the generation unit, that is, before making a read request to the RAM control unit 23. It is necessary to set. Therefore, the request information generation units 31 (1) to 31 (4) in FIG. 5 perform the video arrangement information 15 during a period in which the request units 25 (1) to 25 (4) are not operating, for example, during the vertical blank period. Request information is generated from (1) to 15 (4). Then, the request units 25 (1) to 25 (4) receive the request information necessary for the current video frame during the vertical blank period from the request information generation units 31 (1) to 31 (4) set. The request information is generated in a blank period in which the requesting units 25 (1) to 25 (4) do not operate, and this request information is repeatedly used in the effective period (non-blank period) of the video frame.

ここで、図5では映像配置情報管理部27内に複数の要求情報生成部31(1)〜31(4)を設けたが、図7に示すように、映像配置情報管理部27内に単一の要求情報生成部51を設け、要求情報生成部51が各要求部25(1)〜25(4)に対する要求情報を時分割で生成することで、回路規模をより縮小できる。以下、これについて詳細に説明する。   Here, in FIG. 5, a plurality of request information generation units 31 (1) to 31 (4) are provided in the video arrangement information management unit 27, but as shown in FIG. One request information generation unit 51 is provided, and the request information generation unit 51 generates request information for each of the request units 25 (1) to 25 (4) in a time-sharing manner, whereby the circuit scale can be further reduced. This will be described in detail below.

図6は、図1又は図4の生成部26(1)〜26(4)から映像フレームが時間軸に沿って出力される様子を示す図である。   FIG. 6 is a diagram illustrating a state in which video frames are output along the time axis from the generation units 26 (1) to 26 (4) illustrated in FIG. 1 or 4.

斜線部は、垂直ブランク41及び水平ブランク42を示す。垂直ブランク41と水平ブランク42とにより囲まれた部分が映像フレームの有効部分である。各生成部26(1)〜26(4)は、互いに垂直ブランク分の時間だけずれてY座標を生成するように構成されている。即ち、互いの垂直ブランク期間が重ならないようなタイミングで各映像フレームが生成及び出力されている。   The hatched portion indicates the vertical blank 41 and the horizontal blank 42. A portion surrounded by the vertical blank 41 and the horizontal blank 42 is an effective portion of the video frame. Each of the generating units 26 (1) to 26 (4) is configured to generate Y coordinates that are shifted from each other by a time corresponding to a vertical blank. That is, each video frame is generated and output at a timing such that the vertical blank periods do not overlap each other.

このように映像フレームの生成及び出力タイミングをずらすことにより、各要求部25(1)〜25(4)に対する要求情報を生成する時間をずらすことができるため、図7に示したように、単一の要求情報生成部を用いて、要求情報を時分割で生成できる。但し、1つの要求情報を生成する時間は、垂直ブランク期間よりも短いとする。   By shifting the generation and output timing of the video frame in this way, the time for generating the request information for each request unit 25 (1) to 25 (4) can be shifted, so as shown in FIG. Request information can be generated in a time-sharing manner using one request information generation unit. However, it is assumed that the time for generating one piece of request information is shorter than the vertical blank period.

以上に説明した本実施の形態では、互いの垂直ブランク期間が全く重ならないように各生成部が映像フレームを生成したが、これは一例であり、一部が重なってもよく、従って、本発明は上記内容に限定されない。また、要求情報生成部は、垂直ブランク期間内に要求情報を生成したが、これは一例であり、要求情報生成部は、映像フレームの有効期間に要求情報を生成してもよい。要は、要求情報生成部が複数の要求部で使用する要求情報を時分割で生成できるように、映像フレームの生成及び出力のタイミングをずらすことができればよい。   In the present embodiment described above, each generation unit generates a video frame so that the vertical blank periods do not overlap at all. However, this is an example, and part of the video frames may overlap. Is not limited to the above. Further, the request information generation unit generates the request information within the vertical blank period, but this is only an example, and the request information generation unit may generate the request information during the effective period of the video frame. In short, it is only necessary to be able to shift the timing of generating and outputting video frames so that the request information generating unit can generate request information used by a plurality of requesting units in a time-sharing manner.

以上のように、本実施の形態によれば、要求情報生成部を複数の要求部で共用できるため、さらなる回路規模の縮小が可能である。   As described above, according to the present embodiment, since the request information generation unit can be shared by a plurality of request units, the circuit scale can be further reduced.

(第4の実施の形態)
第1〜第3の実施の形態において、図4に示した固定縮小部の構成の場合、縮小率が離散的であり、また、図1に示した可変縮小部の場合でも、実装コストを鑑みると離散的になってしまう場合がある。本実施の形態では、これらの離散的な縮小率を補う形態を述べる。
(Fourth embodiment)
In the first to third embodiments, the reduction rate is discrete in the case of the configuration of the fixed reduction unit shown in FIG. 4, and the mounting cost is taken into consideration even in the case of the variable reduction unit shown in FIG. May become discrete. In the present embodiment, a mode for compensating for these discrete reduction rates will be described.

図8は、本発明の第4の実施の形態に従った映像合成装置の構成を概略的に示すブロック図である。   FIG. 8 is a block diagram schematically showing a configuration of a video composition device according to the fourth embodiment of the present invention.

映像配置情報管理部27と要求部25(1)〜25(4)との間に補完拡縮率生成部61が配置されている。補完拡縮率生成部は例えば倍率分割手段に相当する。本例では、入力映像の縮小部として、図4に示した固定縮小部が用いられているが、図1に示した可変縮小部が用いられてもよい。補完拡縮率生成部は、出力映像ごとに(生成部ごとに)用意されてもよいが、本例では、単一の補完拡縮率生成部61が、時分割により複数の出力映像のための処理を行う。   A complementary expansion / contraction rate generation unit 61 is arranged between the video arrangement information management unit 27 and the requesting units 25 (1) to 25 (4). The complementary enlargement / reduction ratio generation unit corresponds to, for example, a magnification dividing unit. In this example, the fixed reduction unit shown in FIG. 4 is used as the reduction unit of the input video, but the variable reduction unit shown in FIG. 1 may be used. The complementary enlargement / reduction rate generation unit may be prepared for each output video (for each generation unit), but in this example, a single complementary enlargement / reduction rate generation unit 61 performs processing for a plurality of output videos by time division. I do.

補完拡縮率生成部61は、映像配置情報管理部27によって計算された縮小率を、縮小部が実行可能な縮小率と、補完拡縮率との積として表す縮小率分割処理を行う。   The complementary enlargement / reduction rate generation unit 61 performs reduction rate division processing that represents the reduction rate calculated by the video layout information management unit 27 as a product of the reduction rate that can be executed by the reduction unit and the complementary enlargement / reduction rate.

補完拡縮率生成部61は、例えば入力映像13(1)の1/2.5縮小を示す情報が映像配置情報管理部27から与えられたとすると、1/2.5 = 1/2 × 4/5と表すことができるため、補完拡縮率として4/5を生成する。そして、補完拡縮率生成部61は、例えば要求部25(1)に対して、入力映像13(1)の1/2映像を4/5に間引いて利用することを要求する要求情報を与える。このようにすることにより、結果的に生成部26(1)へは、1/2.5縮小の映像が出力される。または、1/2.5 = 1/3 × 6/5と表すことができるため、補完拡縮率生成部61は、補完拡縮率6/5を生成し、要求部25(1)に対して、入力映像13(1)の1/3映像が6/5倍になるように当該1/3映像の一部を重複して利用することを要求する要求情報を与えてもよい。   For example, assuming that information indicating 1 / 2.5 reduction of the input video 13 (1) is given from the video arrangement information management unit 27, the complementary enlargement / reduction ratio generation unit 61 represents 1 / 2.5 = 1/2 × 4/5. Therefore, 4/5 is generated as the complementary scaling factor. Then, the complementary enlargement / reduction ratio generation unit 61 gives request information requesting that the 1/2 video of the input video 13 (1) is thinned to 4/5 and used, for example, to the request unit 25 (1). By doing so, as a result, a 1 / 2.5 reduced video is output to the generation unit 26 (1). Alternatively, since it can be expressed as 1 / 2.5 = 1 / 3.times.6 / 5, the complementary enlargement / reduction rate generation unit 61 generates the complementary enlargement / reduction rate 6/5, and the input video is supplied to the request unit 25 (1). Request information requesting to use a part of the 1/3 video in an overlapping manner may be provided so that the 1/3 video of 13 (1) is 6/5 times.

以上のように、本実施の形態によれば、縮小部を小さく保ったまま、入力映像に対する連続的な縮小率を実現することが可能となる。   As described above, according to the present embodiment, it is possible to realize a continuous reduction rate for the input video while keeping the reduction unit small.

(第5の実施の形態)
本実施の形態では、離散的な縮小率を補う他の形態を説明する。
(Fifth embodiment)
In the present embodiment, another mode for compensating for a discrete reduction rate will be described.

図9は、本発明の第5の実施の形態に従った映像合成装置の構成を概略的に示すブロック図である。図8との違いは、RAM制御部23と生成部26(1)〜26(4)との間に映像の補完的な拡大または縮小を行う拡縮部71(1)〜71(4)が配置された点にある。拡縮部は、例えば映像補完変倍手段、映像補完縮小手段または映像補完拡大手段に相当する。   FIG. 9 is a block diagram schematically showing a configuration of a video composition device according to the fifth embodiment of the present invention. The difference from FIG. 8 is that enlargement / reduction units 71 (1) to 71 (4) that perform complementary enlargement / reduction of video are arranged between the RAM control unit 23 and the generation units 26 (1) to 26 (4). The point is. The enlargement / reduction unit corresponds to, for example, a video supplement scaling unit, a video supplement reduction unit, or a video supplement enlargement unit.

補完拡縮率生成部61は、例えば入力映像13(1)の1/2.5縮小を示す情報が映像配置情報管理部27から与えられたとすると、1/2.5 = 1/2 x 4/5と表すことができるため、補完縮小率として4/5を生成する。そして、補完拡縮率生成部61は、例えば要求部25(1)に対して、入力映像13(1)の1/2縮小を要求するための要求情報を与え、拡縮部71(1)には4/5縮小を行うように指示することで、結果的に生成部26(1)へは1/2.5縮小の映像が出力される。または、補完拡縮率生成部61は、1/2.5 = 1/3 × 6/5と表すことができるため、補完拡縮率として6/5を生成し、拡縮部71(1)〜71(4)には6/5拡大を行うように指示してもよい。   For example, assuming that information indicating 1 / 2.5 reduction of the input video 13 (1) is given from the video arrangement information management unit 27, the complementary enlargement / reduction ratio generation unit 61 represents 1 / 2.5 = 1/2 × 4/5. Therefore, 4/5 is generated as the complementary reduction ratio. Then, the complementary enlargement / reduction rate generation unit 61 gives request information for requesting 1/2 reduction of the input video 13 (1) to the request unit 25 (1), for example, and the enlargement / reduction unit 71 (1). By instructing to perform 4/5 reduction, as a result, a 1 / 2.5 reduction video is output to the generation unit 26 (1). Alternatively, since the complementary expansion / contraction rate generation unit 61 can be expressed as 1 / 2.5 = 1/3 × 6/5, 6/5 is generated as the complementary expansion / contraction rate, and the expansion / contraction units 71 (1) to 71 (4). May be instructed to perform 6/5 magnification.

ここで、前述した第1〜第4の実施の形態からも理解されるように、本発明の実施の形態は、入力映像の縮小を行う縮小部をRAM制御部の前段に配置し、合成処理を行うための要求部と生成部とをRAM制御部の後段に配置することで、縮小処理と合成処理とを分離して処理を容易にすることを大きな特徴の1つとする。この点からすると、本第5の実施の形態は、一見、この特徴に反するようにも見える。しかし、本実施の形態における拡縮部は、あくまで縮小部の離散的な縮小率を補うものであるため、拡縮部が行う拡縮率は1に近く変動幅も小さい。よって、この拡縮部による拡縮率の変動に伴う処理遅延の変動は少なく、従って遅延の見積もりが容易であるから、本発明の実施の形態による効果の1つである、処理を簡単にすることにより回路規模を縮小することを損なうものではない。   Here, as can be understood from the first to fourth embodiments described above, the embodiment of the present invention arranges a reduction unit for reducing the input video in the previous stage of the RAM control unit, and performs synthesis processing. One of the major features is that the reduction processing and the synthesis processing are separated to facilitate the processing by arranging the requesting unit and the generation unit for performing the processing in the subsequent stage of the RAM control unit. From this point of view, the fifth embodiment at first glance seems to be contrary to this feature. However, since the enlargement / reduction unit in the present embodiment only supplements the discrete reduction rate of the reduction unit, the enlargement / reduction rate performed by the enlargement / reduction unit is close to 1, and the fluctuation range is small. Therefore, since the fluctuation of the processing delay due to the fluctuation of the enlargement / reduction ratio by the enlargement / reduction unit is small, and the estimation of the delay is easy, one of the effects according to the embodiment of the present invention is to simplify the processing. It does not impair reducing the circuit scale.

以上に説明した第5の実施の形態は第4の実施の形態と組み合わせることも可能である。   The fifth embodiment described above can be combined with the fourth embodiment.

即ち、まず、補完拡縮率生成部が入力映像の縮小率を、縮小部が実行可能な縮小率と、補完拡縮率との積として表す。   That is, first, the complementary enlargement / reduction rate generation unit represents the reduction rate of the input video as a product of the reduction rate executable by the reduction unit and the complementary enlargement / reduction rate.

この後、例えば、補完拡縮率が1より大きい場合は、RAM制御部から読み出された入力映像を、拡縮部が補完拡縮率によって拡大し、補完拡縮率が1未満の場合は、入力映像を補完拡縮率に応じた分間引いて利用することを要求部がRAM制御部に要求する。   Thereafter, for example, when the complementary scaling ratio is larger than 1, the input video read from the RAM control unit is enlarged by the complementary scaling ratio, and when the complementary scaling ratio is less than 1, the input video is The request unit requests the RAM control unit to draw and use the data according to the complementary expansion / contraction rate.

または、補完拡縮率が1未満の場合は、RAM制御部から読み出された入力映像を、拡縮部が補完拡縮率によって縮小し、補完拡縮率が1より大きい場合は、入力映像を補完拡縮率に応じた分重複して利用することを要求部がRAM制御部に要求する。   Alternatively, when the complementary scaling ratio is less than 1, the input video read out from the RAM control unit is reduced by the complementary scaling ratio, and when the complementary scaling ratio is larger than 1, the input video is complemented by the scaling ratio. The request unit requests the RAM control unit to use the same amount in accordance with

なお、以上のように実施の形態としてテレビ会議サーバを示したが、本発明はあくまでも複数の映像を入力して複数の合成映像を出力する合成処理一般に関するものであり、テレビ会議サーバに限定されるものではない。例えば監視用途で複数の監視カメラ映像を入力して合成する、オフィスや家庭内などでPC画面、TV画面、ゲーム画面などを合成するなど何でも良く、装置の用途や各々の入出力映像の種別/信号フォーマットは問わない(各チャンネルで異なっていても良い)。   As described above, the video conference server is shown as an embodiment. However, the present invention relates to general synthesis processing for inputting a plurality of videos and outputting a plurality of synthesized videos, and is limited to the video conference server. It is not something. For example, you can combine multiple surveillance camera images for surveillance purposes, or synthesize PC screens, TV screens, game screens, etc. in the office or home. The signal format does not matter (may be different for each channel).

本発明の第1の実施の形態に従った映像合成装置の構成を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration of a video composition device according to a first embodiment of the present invention. 図1の映像合成装置を適用したテレビ会議システムの構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the video conference system to which the video synthesizing | combining apparatus of FIG. 1 is applied. 映像配置の一例を示す図である。It is a figure which shows an example of video arrangement | positioning. 本発明の第2の実施の形態に従った映像合成装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the video synthesizing | combining apparatus according to the 2nd Embodiment of this invention. 映像配置情報管理部が複数の要求情報生成部を備えた構成を示す図である。It is a figure which shows the structure by which the video arrangement | positioning information management part was provided with the several request information generation part. 複数の映像フレームが時間に沿って出力される様子を示す図である。It is a figure which shows a mode that a some video frame is output along time. 映像配置情報管理部が単一の要求情報生成部を備えた構成を示す図である。It is a figure which shows the structure by which the video arrangement | positioning information management part was provided with the single request information generation part. 本発明の第4の実施の形態に従った映像合成装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the video synthesizing | combining apparatus according to the 4th Embodiment of this invention. 本発明の第5の実施の形態に従った映像合成装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the video synthesizing | combining apparatus according to the 5th Embodiment of this invention. 本発明の第1の実施の形態に従った映像合成装置の他の構成を概略的に示すブロック図である。It is a block diagram which shows schematically the other structure of the video synthesizing | combining apparatus according to the 1st Embodiment of this invention.

符号の説明Explanation of symbols

11 映像合成装置
12(1)〜12(4) 端末
13(1)〜13(4) 入力映像
14(1)〜14(4) 出力映像
15(1)〜15(4) 映像配置情報
21(1)〜21(4) 解析部
22(1)〜22(4) 可変縮小部
23 RAM制御部
24 RAM
25(1)〜25(4)、25 要求部
26(1)〜26(4) 生成部
27 映像配置情報管理部
28(1)〜28(4) 固定縮小部
51 要求情報生成部
61 補完縮小率生成部
71(1)〜71(4) 拡縮部
11 Video composition device 12 (1) -12 (4) Terminal 13 (1) -13 (4) Input video 14 (1) -14 (4) Output video 15 (1) -15 (4) Video arrangement information 21 ( 1) to 21 (4) Analysis units 22 (1) to 22 (4) Variable reduction unit 23 RAM control unit 24 RAM
25 (1) to 25 (4), 25 Request unit 26 (1) to 26 (4) Generation unit 27 Video layout information management unit 28 (1) to 28 (4) Fixed reduction unit 51 Request information generation unit 61 Complementary reduction Rate generator 71 (1) -71 (4) Enlargement / reduction unit

Claims (18)

それぞれ入力映像が入力されるI個の映像変倍手段であって、各々自身に入力された前記入力映像を複数の倍率によって変倍して複数の変倍された入力映像を生成する、I個の映像変倍手段と、
変倍された前記入力映像の書込み要求を受けて前記変倍された入力映像を前記書込み要求により指定された領域に一時的に記憶する映像記憶手段と、
各々前記映像変倍手段に対応し、前記映像変倍手段によって生成された前記複数の変倍された入力映像の各々を前記映像記憶手段における所定領域へ書き込むことを前記映像記憶手段に要求する、複数の書込要求手段と、
J個の映像配置情報のそれぞれに基づいて入力映像の読出し要求を行う、各前記映像配置情報のそれぞれは合成映像上における各入力映像の配置を定めている、読出要求手段と、
前記読出し要求を受けて前記入力映像を前記映像記憶手段から読み出す読出制御手段と、
各々前記映像配置情報に対応し、前記読出制御手段によって読み出された入力映像から合成映像を生成する、J個の合成映像生成手段と、
を備えた映像合成装置。
I pieces of image scaling means each for receiving an input image, wherein each of the input images inputted to itself is scaled by a plurality of magnifications to generate a plurality of scaled input images. The image scaling means of
Video storage means for receiving a write request for the scaled input video and temporarily storing the scaled input video in an area designated by the write request;
Each of the plurality of scaled input videos generated by the video scaling means corresponding to the video scaling means is requested to write to a predetermined area in the video storage means. A plurality of write request means;
Read request means for making a read request for an input video based on each of the J video layout information, each of the video layout information defining a layout of each input video on the composite video,
Read control means for receiving the read request and reading the input video from the video storage means;
J composite video generation means, each corresponding to the video arrangement information, for generating a composite video from the input video read by the read control means;
A video composition device.
前記J個の映像配置情報に基づいて前記映像変倍手段のそれぞれに複数の倍率を指定する倍率指定手段をさらに備え、
前記映像変倍手段は、前記倍率指定手段によって指定された前記複数の倍率にしたがって前記入力映像を変倍して前記複数の変倍された入力映像を生成する、
ことを特徴とする請求項1に記載の映像合成装置。
A magnification designating unit for designating a plurality of magnifications for each of the video scaling units based on the J video layout information;
The image scaling unit generates the plurality of scaled input images by scaling the input image according to the plurality of magnifications designated by the magnification designation unit.
The video synthesizing apparatus according to claim 1.
前記映像変倍手段は、J個の可変変倍部を有することを特徴とする請求項2に記載の映像合成装置。   3. The video synthesizing apparatus according to claim 2, wherein the video scaling unit includes J variable scaling units. 前記映像変倍手段は、それぞれ相異なる一定の倍率をもつ複数の固定変倍手段を有することを特徴とする請求項1に記載の映像合成装置。   2. The video synthesizing apparatus according to claim 1, wherein the video scaling unit includes a plurality of fixed scaling units each having a different fixed magnification. 前記映像変倍手段は、自身に入力される入力映像に関して前記映像配置情報で指定可能な倍率の個数と同数の固定変倍手段を有することを特徴とする請求項1に記載の映像合成装置。   2. The video composition apparatus according to claim 1, wherein the video scaling unit includes fixed scaling units equal to the number of magnifications that can be specified by the video arrangement information with respect to an input video input to the video scaling unit. 各前記映像配置情報のそれぞれから、合成映像上の各座標領域に配置されるべき入力映像の情報を、前記読出要求手段が前記読み出し要求を行う際に参照する要求情報として順番に生成する要求情報生成部をさらに備え、
前記読出要求手段は、前記要求情報の生成順序に合わせて前記要求情報生成部が少なくとも前記要求情報を生成するのに必要な時間ずつずれるように、前記読出制御手段に対する前記読出し要求を開始する、
ことを特徴とする請求項1に記載の映像合成装置。
Request information for sequentially generating information on the input video to be arranged in each coordinate area on the composite video as request information to be referred to when the read request unit makes the read request from each of the video arrangement information. A generation unit;
The read request unit starts the read request to the read control unit so that the request information generation unit shifts at least time necessary for generating the request information in accordance with the generation order of the request information.
The video synthesizing apparatus according to claim 1.
前記要求情報生成部は前記映像配置情報に対応する合成映像の垂直ブランク期間内に前記映像配置情報に対応する要求情報の生成処理を終えることを特徴とする請求項6に記載の映像合成装置。   The video composition apparatus according to claim 6, wherein the request information generation unit finishes generation processing of request information corresponding to the video layout information within a vertical blank period of the composite video corresponding to the video layout information. 前記映像変倍手段は、自身に入力された前記入力映像を複数の縮小率によって縮小して複数の縮小された入力映像を生成することを特徴とする請求項1に記載の映像合成装置。   2. The video composition apparatus according to claim 1, wherein the video scaling unit generates a plurality of reduced input videos by reducing the input video input thereto by a plurality of reduction ratios. 前記映像配置情報に従って配置される前記入力映像の倍率を、前記映像変倍手段が変倍可能な倍率と、補完変倍率との積として表し、前記補完変倍率が1未満の場合は、前記変倍された入力映像を前記補完変倍率に応じた分間引いて利用することを、前記補完変倍率が1より大きい場合は、前記変倍された入力映像を前記補完変倍率に応じた分重複して利用することを前記読出要求手段に要求する、倍率分割手段をさらに備えた、
ことを特徴とする請求項1に記載の映像合成装置。
The magnification of the input video arranged according to the video arrangement information is expressed as a product of a magnification that can be scaled by the video scaling means and a complementary scaling factor. When the complementary scaling factor is less than 1, the scaling factor is changed. When the multiplied input image is used by being drawn for a time corresponding to the complementary scaling factor, and the complementary scaling factor is greater than 1, the scaled input video is overlapped by the amount corresponding to the complementary scaling factor. Further comprising a magnification division means for requesting the read request means to use
The video synthesizing apparatus according to claim 1.
前記映像配置情報に従って配置される前記入力映像の倍率を、前記映像変倍手段が変倍可能な倍率と、1未満の値を有する補完縮小率との積として表し、前記変倍された入力映像を前記補完縮小率に応じた分間引いて利用することを前記読出要求手段に要求する、倍率分割手段をさらに備えた、ことを特徴とする請求項1に記載の映像合成装置。   The magnification of the input video arranged according to the video arrangement information is represented as a product of a magnification that can be scaled by the video scaling means and a complementary reduction ratio having a value less than 1, and the scaled input video The video composition apparatus according to claim 1, further comprising a magnification division unit that requests the read request unit to draw and use for a period corresponding to the complementary reduction ratio. 前記映像配置情報に従って配置される前記入力映像の倍率を、前記映像変倍手段が変倍可能な倍率と、1より大きい値を有する補完拡大率との積として表し、前記変倍された入力映像を前記補完拡大率に応じた分重複して利用することを前記読出要求手段に要求する、倍率分割手段をさらに備えた、
ことを特徴とする請求項1に記載の映像合成装置。
The magnification of the input video arranged according to the video arrangement information is expressed as a product of a magnification that can be scaled by the video scaling means and a complementary enlargement factor having a value larger than 1, and the scaled input video Further comprising a magnification division means for requesting the read request means to use the same in accordance with the complementary enlargement ratio,
The video synthesizing apparatus according to claim 1.
前記映像配置情報に従って配置される前記入力映像の倍率を、前記映像変倍手段が変倍可能な倍率と、補完変倍率との積として表す倍率分割手段と、
各々前記合成映像生成手段に対応配置され、前記読出制御手段から読み出された前記変倍された入力映像を、前記補完変倍率によって変倍し、変倍後の入力映像を前記合成映像生成手段に出力する映像補完変倍手段と、
をさらに備えたことを特徴とする請求項1に記載の映像合成装置。
Magnification dividing means for expressing the magnification of the input video arranged according to the video arrangement information as a product of a magnification that can be scaled by the video scaling means and a complementary scaling ratio;
Each scaled input video read from the readout control unit is scaled by the complementary scaling factor, and the scaled input video is converted to the synthesized video generation unit. Video complementary scaling means to output to
The video composition apparatus according to claim 1, further comprising:
前記映像配置情報に従って配置される前記入力映像の倍率を、前記映像変倍手段が変倍可能な倍率と、1未満の値を有する補完縮小率との積として表す倍率分割手段と、
各々前記合成映像生成手段に対応配置され、前記読出制御手段から読み出された前記変倍された入力映像を、前記補完縮小率によって縮小し、縮小後の入力映像を前記合成映像生成手段に出力する映像補完縮小手段と、
をさらに備えたことを特徴とする請求項1に記載の映像合成装置。
A magnification dividing means for expressing the magnification of the input video arranged according to the video arrangement information as a product of a magnification that the video scaling means can scale and a complementary reduction ratio having a value less than 1;
Each scaled input video read from the readout control means is arranged corresponding to the synthesized video generation means, and reduced by the complementary reduction ratio, and the reduced input video is output to the synthesized video generation means Video complement reduction means to
The video composition apparatus according to claim 1, further comprising:
前記映像配置情報に従って配置される前記入力映像の倍率を、前記映像変倍手段が変倍可能な倍率と、1より大きい値を有する補完拡大率との積として表す倍率分割手段と、
各々前記合成映像生成手段に対応配置され、前記読出制御手段から読み出された前記変倍された入力映像を、前記補完拡大率によって拡大し、拡大後の入力映像を前記合成映像生成手段に出力する映像補完拡大手段と、
をさらに備えたことを特徴とする請求項1に記載の映像合成装置。
A magnification dividing means for expressing the magnification of the input video arranged according to the video arrangement information as a product of a magnification that can be changed by the video scaling means and a complementary enlargement ratio having a value larger than 1.
Each of the scaled input videos that are arranged corresponding to the synthesized video generation means and read from the readout control means are enlarged by the complementary enlargement ratio, and the enlarged input video is output to the synthesized video generation means Video supplement enlargement means,
The video composition apparatus according to claim 1, further comprising:
前記映像配置情報に従って配置される前記入力映像の倍率を、前記映像変倍手段が変倍可能な倍率と、補完変倍率との積として表す倍率分割手段と、
各々前記合成映像生成手段に対応配置され、前記補完変倍率が1より大きい場合は、前記読出制御手段から読み出された前記変倍された入力映像を、前記補完変倍率によって拡大し、拡大後の入力映像を前記合成映像生成手段に出力する映像補完拡大手段と、をさらに備え、
前記倍率分割手段は、前記補完変倍率が1未満の場合は、前記変倍された入力映像を前記補完変倍率に応じた分間引いて利用することを前記読出要求手段に要求する、
ことを特徴とする請求項1に記載の映像合成装置。
Magnification dividing means for expressing the magnification of the input video arranged according to the video arrangement information as a product of a magnification that can be scaled by the video scaling means and a complementary scaling ratio;
When each of the composite video generation means is arranged correspondingly and the complementary scaling factor is larger than 1, the scaled input video read from the readout control means is enlarged by the complementary scaling factor, Video supplement expansion means for outputting the input video to the composite video generation means,
The magnification dividing unit requests the read request unit to draw and use the scaled input video for a time corresponding to the complementary scaling factor when the complementary scaling factor is less than 1.
The video synthesizing apparatus according to claim 1.
前記映像配置情報に従って配置される前記入力映像の倍率を、前記映像変倍手段が変倍可能な倍率と、補完変倍率との積として表す倍率分割手段と、
各々前記合成映像生成手段に対応配置され、前記補完変倍率が1未満の場合は、前記読出制御手段から読み出された前記変倍された入力映像を、前記補完変倍率によって縮小して、縮小後の入力映像を前記合成映像生成手段に出力する映像補完縮小手段と、をさらに備え、
前記倍率分割手段は、前記補完変倍率が1より大きい場合は、前記変倍された入力映像を前記補完拡大率に応じた分重複して利用することを前記読出制御手段に要求する、
ことを特徴とする請求項1に記載の映像合成装置。
Magnification dividing means for expressing the magnification of the input video arranged according to the video arrangement information as a product of a magnification that can be scaled by the video scaling means and a complementary scaling ratio;
When each of the composite video generation means is arranged correspondingly and the complementary scaling ratio is less than 1, the scaled input video read from the readout control means is reduced by the complementary scaling ratio and reduced. Video supplement reduction means for outputting a later input video to the synthesized video generation means, and
The magnification dividing unit requests the read control unit to use the scaled input video in an overlapping manner according to the complementary magnification when the complementary scaling factor is greater than 1.
The video synthesizing apparatus according to claim 1.
I個の入力映像の各々を複数の倍率によって変倍して、前記入力映像ごとに複数の変倍された入力映像を生成し、
前記入力映像ごとに生成された前記複数の変倍された入力映像の各々を映像記憶手段における所定領域に書き込み、
J個の映像配置情報のそれぞれに基づいて、前記映像記憶手段から入力映像の読み出しを行い、前記映像配置情報は、合成映像上における各入力映像の配置を定めたものであり、
前記映像配置情報ごとに読み出された入力映像から合成映像を生成する、
ことを特徴とする映像合成方法。
Each of the I input videos is scaled by a plurality of magnifications to generate a plurality of scaled input videos for each of the input videos,
Writing each of the plurality of scaled input videos generated for each of the input videos into a predetermined area in the video storage means;
Based on each of the J video arrangement information, the input video is read from the video storage means, and the video arrangement information defines the arrangement of each input video on the composite video,
Generating a composite video from the input video read for each video layout information;
A video composition method characterized by the above.
I個の入力映像の各々を複数の倍率によって変倍して、前記入力映像ごとに複数の変倍された入力映像を生成するステップと、
前記入力映像ごとに生成された前記複数の変倍された入力映像の各々を映像記憶手段における所定領域に書き込むステップと、
J個の映像配置情報のそれぞれに基づいて、前記映像記憶手段から入力映像の読み出しを行う、前記映像配置情報は、合成映像上における各入力映像の配置を定めたものである、ステップと、
前記映像配置情報ごとに読み出された入力映像から合成映像を生成するステップと、
をコンピュータに実行させるための映像合成プログラム。
Scaling each of the I input videos by a plurality of magnifications to generate a plurality of scaled input videos for each of the input videos;
Writing each of the plurality of scaled input videos generated for each of the input videos into a predetermined area in the video storage means;
Reading the input video from the video storage means based on each of the J video layout information, wherein the video layout information defines the layout of each input video on the composite video; and
Generating a composite video from the input video read for each video layout information;
Is a video composition program that causes a computer to execute.
JP2006008942A 2005-01-17 2006-01-17 Video composition apparatus, video composition method, and video composition program Expired - Fee Related JP4559976B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006008942A JP4559976B2 (en) 2005-01-17 2006-01-17 Video composition apparatus, video composition method, and video composition program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005009133 2005-01-17
JP2006008942A JP4559976B2 (en) 2005-01-17 2006-01-17 Video composition apparatus, video composition method, and video composition program

Publications (3)

Publication Number Publication Date
JP2006222942A true JP2006222942A (en) 2006-08-24
JP2006222942A5 JP2006222942A5 (en) 2006-10-19
JP4559976B2 JP4559976B2 (en) 2010-10-13

Family

ID=36984915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006008942A Expired - Fee Related JP4559976B2 (en) 2005-01-17 2006-01-17 Video composition apparatus, video composition method, and video composition program

Country Status (1)

Country Link
JP (1) JP4559976B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008085677A (en) * 2006-09-27 2008-04-10 Toshiba Corp Information control device, information synthesizer and program
JP2008262102A (en) * 2007-04-13 2008-10-30 Mitsubishi Electric Corp Overlay image synthesizer
JP2011082982A (en) * 2009-10-05 2011-04-21 Korea Electronics Telecommun System for providing multi-angle broadcasting service
JP2011154630A (en) * 2010-01-28 2011-08-11 Hitachi Ltd Vehicle monitoring device
US8179421B2 (en) 2006-11-21 2012-05-15 Kabushiki Kaisha Toshiba Image synthesizing device and method and computer readable medium
US8320466B2 (en) 2007-11-01 2012-11-27 Kabushiki Kaisha Toshiba Mixed video delivering apparatus and method, and computer storage medium
JP2014068339A (en) * 2012-07-30 2014-04-17 Polycom Inc Method and system for conducting video conferences of diverse participating devices
WO2023013072A1 (en) * 2021-08-06 2023-02-09 日本電信電話株式会社 Device, method, and program for combining video signals

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6464482A (en) * 1987-09-04 1989-03-10 Nippon Telegraph & Telephone Television conference controller among multispots
JPH09149396A (en) * 1995-11-27 1997-06-06 Fujitsu Ltd Multi-spot television conference system
JP2002300376A (en) * 2001-03-29 2002-10-11 Fuji Photo Film Co Ltd Image data generating method and device, image processing method and device, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6464482A (en) * 1987-09-04 1989-03-10 Nippon Telegraph & Telephone Television conference controller among multispots
JPH09149396A (en) * 1995-11-27 1997-06-06 Fujitsu Ltd Multi-spot television conference system
JP2002300376A (en) * 2001-03-29 2002-10-11 Fuji Photo Film Co Ltd Image data generating method and device, image processing method and device, and recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008085677A (en) * 2006-09-27 2008-04-10 Toshiba Corp Information control device, information synthesizer and program
US8179421B2 (en) 2006-11-21 2012-05-15 Kabushiki Kaisha Toshiba Image synthesizing device and method and computer readable medium
JP2008262102A (en) * 2007-04-13 2008-10-30 Mitsubishi Electric Corp Overlay image synthesizer
US8320466B2 (en) 2007-11-01 2012-11-27 Kabushiki Kaisha Toshiba Mixed video delivering apparatus and method, and computer storage medium
JP2011082982A (en) * 2009-10-05 2011-04-21 Korea Electronics Telecommun System for providing multi-angle broadcasting service
KR101367458B1 (en) * 2009-10-05 2014-02-26 한국전자통신연구원 System for providing multi-angle broardcasting service
JP2011154630A (en) * 2010-01-28 2011-08-11 Hitachi Ltd Vehicle monitoring device
JP2014068339A (en) * 2012-07-30 2014-04-17 Polycom Inc Method and system for conducting video conferences of diverse participating devices
WO2023013072A1 (en) * 2021-08-06 2023-02-09 日本電信電話株式会社 Device, method, and program for combining video signals

Also Published As

Publication number Publication date
JP4559976B2 (en) 2010-10-13

Similar Documents

Publication Publication Date Title
JP4559976B2 (en) Video composition apparatus, video composition method, and video composition program
US8004542B2 (en) Video composition apparatus, video composition method and video composition program
US7659934B2 (en) Recording/reproduction apparatus, and recording/reproduction method as well as stereoscopic images visual effects confirmation apparatus and stereoscopic image visual effects confirmation method
JP4346591B2 (en) Video processing apparatus, video processing method, and program
JP5317825B2 (en) Image processing apparatus and image processing method
JPH11187398A (en) Encoding and decoding system
KR100190250B1 (en) Digital television set
KR20060120571A (en) Live streaming broadcast method, live streaming broadcast device, live streaming broadcast system, program, recording medium, broadcast method, and broadcast device
JPH08172573A (en) Data rate conversion and method thereof
US8179421B2 (en) Image synthesizing device and method and computer readable medium
JP2002351438A (en) Image monitor system
US20020158895A1 (en) Method of and a system for distributing interactive audiovisual works in a server and client system
JP3672561B2 (en) Moving picture synthesizing apparatus, moving picture synthesizing method, and information terminal apparatus with moving picture synthesizing function
WO2022000157A1 (en) Video systems with real-time dynamic range enhancement
EP1606954B1 (en) Arrangement for generating a 3d video signal
JP2004538741A (en) Method for combining multiple sets of multi-channel digital images and bus interface technology
JP2007201816A (en) Video image display system and video image receiver
WO2023017577A1 (en) Apparatus, method, and program for combining video signals
JP2005292414A (en) Image output controller
WO2022137326A1 (en) Video and sound synthesis device, method, and program
JPH09270954A (en) Screen compositing circuit
JP3295036B2 (en) Multi-screen display device
JPH0564184A (en) Screen configuration system for video conference system
JPH0759004A (en) Multi-screen display device
JPH1155591A (en) Image processor and its method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100625

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100723

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees