JPH0723205A - Synthesized pattern generating method - Google Patents

Synthesized pattern generating method

Info

Publication number
JPH0723205A
JPH0723205A JP5145898A JP14589893A JPH0723205A JP H0723205 A JPH0723205 A JP H0723205A JP 5145898 A JP5145898 A JP 5145898A JP 14589893 A JP14589893 A JP 14589893A JP H0723205 A JPH0723205 A JP H0723205A
Authority
JP
Japan
Prior art keywords
screen
gob
video signal
video
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5145898A
Other languages
Japanese (ja)
Inventor
Tadahiro Nagayama
忠洋 長山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP5145898A priority Critical patent/JPH0723205A/en
Publication of JPH0723205A publication Critical patent/JPH0723205A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To prevent deterioration in a video quality due to synthesis by applying synthesis processing to a coded video signal while being compressed. CONSTITUTION:A signal unit being the object of synthesis is extracted (121, 122) from plural video signals as a unit for synthesizing a larger signal unit not giving effect onto coding even through division and position information of each signal unit is adjusted to match a display, desired position and a synthesized video signal is generated (140). When one pattern is not finished by the extracted signal unit, the deficient signal unit is added by using a header corresponding to the signal unit as a dummy to make one pattern complete.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は,CCITT勧告H.2
61に準拠した符号化装置により符号化した映像信号を
符号化された信号のままの状態で処理し,複数の映像の
部分を合成して1映像を作成する合成画面作成方法に関
する。
BACKGROUND OF THE INVENTION The present invention is based on CCITT Recommendation H.264. Two
The present invention relates to a composite screen creating method for processing a video signal coded by a coding device compliant with 61 in the state of the coded signal as it is, and synthesizing a plurality of video parts to create one video.

【0002】[0002]

【従来の技術】従来の方法で映像の一部分を他の映像に
合成する場合には,映像信号をビットマップ化し,合成
したい部分の映像信号を抽出してアドレスの変更等を行
い,ビットマップ化された他の映像の同じアドレスの部
分と置換することが行われていた。
2. Description of the Related Art When a part of an image is combined with another image by a conventional method, the image signal is bit-mapped, the part of the image signal to be combined is extracted, the address is changed, etc. It was done to replace the part of the same address of the other video.

【0003】[0003]

【発明が解決しようとする課題】従来の方法では,映像
信号をビットマップで処理しているため,符号化装置に
よりデータ圧縮した信号はそのままでは合成処理ができ
ず,一度復号してデータ圧縮解除をする必要があった。
合成した映像信号を他に送信する場合には再び符号化す
る必要があるが,復号および符号化の処理を行うと画像
品質が悪くなるため,合成処理後の映像は合成処理を行
っていない映像と比較すると映像品質が劣化してしまう
という欠点がある。
In the conventional method, since the video signal is processed by the bit map, the signal compressed by the encoding device cannot be combined as it is, and it is decoded once and the data is decompressed. Had to do.
It is necessary to re-encode the combined video signal when sending it to another, but the image quality deteriorates when the decoding and coding processes are performed, so the post-composition video is the video that has not been processed. There is a drawback in that the image quality is deteriorated when compared with.

【0004】本発明は,この欠点を解決するためになさ
れたものであり,符号化された映像信号をデータ圧縮さ
れた映像信号のままで合成処理を行うようにしたもので
ある。
The present invention has been made in order to solve this drawback, and is one in which a coded video signal is subjected to a synthesizing process as a data-compressed video signal.

【0005】[0005]

【課題を解決するための手段】本発明では,画面を所定
の分割単位で分割し,分割単位の映像部分が所定の画素
数で構成されるように符号化する符号化方法により符号
化された映像信号を対象とし,その符号化方法によって
符号化された信号が,符号化するための小さな信号単位
とそれらを束ねた大きな信号単位によって構成され,各
信号単位が何番目の信号単位であるかまたは表示された
ときの表示位置を示す位置情報を含むヘッダとその信号
単位の内容との組み合わせで構成されていることに着目
して処理を行う。すなわち,請求項1記載の発明では,
分割しても符号化に影響が出ない大きな信号単位を合成
のための単位とし,複数の映像信号から合成の対象とな
る信号単位を抽出し,それぞれの信号単位の位置情報を
表示希望位置に合うように調整して合成映像信号を作成
する。請求項2記載の発明は,抽出した信号単位では1
画面が完成しない場合の発明であり,不足する信号単位
はその信号単位に対応するヘッダをダミーとして付加し
て1画面を完成させる。
According to the present invention, a screen is divided by a predetermined division unit, and the video portion of the division unit is encoded by an encoding method so that the video portion is composed of a predetermined number of pixels. A video signal, which is encoded by the encoding method, is composed of a small signal unit for encoding and a large signal unit that bundles them, and which signal unit is each signal unit? Alternatively, the processing is performed by noting that the header is composed of the header including the position information indicating the display position when displayed and the content of the signal unit. That is, in the invention according to claim 1,
A large signal unit that does not affect the coding even if divided is used as a unit for combining, the signal units to be combined are extracted from multiple video signals, and the position information of each signal unit is displayed at the desired display position. Adjust to match and create a composite video signal. In the invention according to claim 2, the extracted signal unit is 1
This is an invention in the case where the screen is not completed, and the insufficient signal unit is added with a header corresponding to the signal unit as a dummy to complete one screen.

【0006】図1は,本発明の概要説明図である。合成
対象となる画面101,102の映像信号をそれぞれC
CITT勧告H.261に準拠した符号化装置等により
符号化する(処理111,112)。画面101,10
2におけるX1,X2,…,Y1,Y2,…は,データ
圧縮の単位となる画面の分割単位である。符号化した映
像信号からそれぞれ分割単位を抽出する(処理121,
122)。次に,抽出した分割単位のヘッダ情報中の位
置情報が合成すべき画面の希望の表示位置を表すように
調整する(処理131,132)。それらの映像信号を
組み合わせて,合成映像信号を作成する(処理14
0)。この合成映像信号を表示することにより,例えば
合成画面150のような画面101と画面102とを合
成した画面が得られることになる。合成の処理140に
おいて,分割単位の個数が所定数に満たない場合にはダ
ミー信号を付加して合成画面150を完成させる。
FIG. 1 is a schematic explanatory view of the present invention. The video signals of the screens 101 and 102 to be combined are respectively C
CITT Recommendation H.264 It is encoded by an encoding device or the like conforming to H.261 (processing 111, 112). Screen 101, 10
, X1, X2, ..., Y1, Y2, ... in 2 are screen division units that are units of data compression. Each division unit is extracted from the encoded video signal (processing 121,
122). Next, the position information in the extracted header information of the division unit is adjusted so as to represent the desired display position of the screen to be combined (process 131, 132). These video signals are combined to create a composite video signal (process 14).
0). By displaying the composite video signal, a screen such as the composite screen 150 in which the screen 101 and the screen 102 are composited can be obtained. In the combining process 140, when the number of division units is less than the predetermined number, a dummy signal is added to complete the combined screen 150.

【0007】[0007]

【作用】複数の映像信号から抽出した信号単位は同じフ
ォーマットを有するため,ヘッダの位置情報が重複しな
いように調整して組み合わせれば新たな1画面の映像信
号として存在できる。本発明では,合成の対象となる信
号単位を抽出し,映像データは変更することなくヘッダ
部の位置情報を表示位置に合わせて調整して組み合わせ
るため,表示される映像の内容は全く変化がなく,単に
表示位置が位置情報の調整結果に対応して変化した新た
な映像信号が得られる。さらに,請求項2記載の発明
は,映像データが存在しない場合にはヘッダだけ送信す
るというH.261等の方式の特徴を利用したものであ
り,抽出した信号単位だけでは1画面を構成できない場
合には,不足部に対応したヘッダを不足部分のダミーと
して付加して映像信号を完成する。
Since the signal units extracted from a plurality of video signals have the same format, if they are adjusted and combined so that the position information of the header does not overlap, they can be present as a new one-screen video signal. In the present invention, the signal unit to be combined is extracted, and the position information of the header portion is adjusted and combined according to the display position without changing the video data, so that the content of the displayed video does not change at all. , A new video signal whose display position is changed according to the adjustment result of the position information is obtained. Further, according to the invention of claim 2, only the header is transmitted when there is no video data. When a single screen cannot be constructed with only the extracted signal units, a header corresponding to the lacking part is added as a dummy of the lacking part to complete the video signal.

【0008】[0008]

【実施例】本発明は,CCITT勧告H.261に準拠
して符号化された映像信号のように,画面が分割され,
その分割された画面に対応する信号の中の単位でデータ
圧縮する方式の信号であって,画面分割数に複数の方法
が用意されている映像信号を対象とする。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention is based on CCITT Recommendation H.264. The screen is divided like a video signal encoded in accordance with H.261,
A video signal is a signal of a method of compressing data in units of the signals corresponding to the divided screens, and a video signal for which a plurality of methods are prepared for the number of screen divisions is targeted.

【0009】本発明の実施例の説明に先立ち,H.26
1準拠の符号化装置によって符号化された映像信号の特
徴を簡単に説明する。H.261では,映像信号がCI
FまたはQCIFと呼ばれるフォーマットで符号化され
る。図12は,CIFまたはQCIFで符号化された信
号の構成の概略を示す。この信号は符号化された映像等
のデータと種々の情報を送信するためのヘッダとから構
成される。
Prior to the description of the embodiments of the present invention, H. 26
The features of the video signal encoded by the 1-compliant encoder will be briefly described. H. In H.261, the video signal is CI
It is encoded in a format called F or QCIF. FIG. 12 shows an outline of the structure of a signal encoded by CIF or QCIF. This signal is composed of encoded video data and a header for transmitting various information.

【0010】図12において,31は1画面の区切りご
とに付与されるヘッダでフレームヘッダ(またはピクチ
ャヘッダ)と呼ばれる。フレームヘッダ31の中のPT
YPE(タイプ・インフォメーション)と呼ばれる情報
には,CIFかQCIFかを識別するためのソースフォ
ーマットと呼ばれるフラグが存在する。32のフレーム
ヘッダ31に続く部分は画面の分割単位でありGOB
(グループ・オブ・ブロックス)と呼ばれる。GOB3
2は,GOBヘッダ33と更に小さい画面分割単位であ
るMB(マクロブロック)34とから構成される。GO
Bヘッダ33には,何番目のGOBであるかを識別する
ための情報であるGN(GOB番号)が含まれる。MB
34は,MBヘッダ35と更に小さい画面分割単位であ
るブロック36とから構成される。符号化はブロック単
位で行われる。MBヘッダ35には,そのMBがGOB
内の何番目のMBであるかを識別する情報であるMBA
(マクロブロック・アドレス)やそのMB内のブロック
の符号化が動き補償がある符号化であるか動き補償が無
い符号化であるか区別する情報などが含まれる。動き補
償が無いときは,MB内の画像情報の符号化はブロック
ごとに独立であるが,動き補償がある場合には,隣接す
るMBの画像情報との関連の基に符号化される。映像の
最外周に存在するMBは,動き補償に関してその外側に
対しては相互に影響を及ぼし合わない特徴がある。
In FIG. 12, reference numeral 31 denotes a header added for each screen division, which is called a frame header (or picture header). PT in frame header 31
Information called YPE (type information) has a flag called a source format for identifying CIF or QCIF. The part of the frame 32 following the frame header 31 is a division unit of the screen.
(Group of Blocks). GOB3
2 includes a GOB header 33 and an MB (macroblock) 34 which is a smaller screen division unit. GO
The B header 33 includes GN (GOB number) which is information for identifying which GOB. MB
34 comprises an MB header 35 and a block 36 which is a smaller screen division unit. Encoding is performed in block units. In the MB header 35, the MB is GOB
MBA which is information for identifying which MB in the MB
(Macroblock address) and information for distinguishing whether the coding of the block in the MB is coding with motion compensation or coding without motion compensation is included. When there is no motion compensation, the coding of the image information in the MB is independent for each block, but when there is the motion compensation, it is coded based on the relation with the image information of the adjacent MB. The MB existing at the outermost periphery of the image has a feature that the outside does not affect each other with respect to motion compensation.

【0011】CIFで符号化されたときは,1画面を構
成するGOB32は12個であり,それらのGOB32
には1〜12のGNが付与される。また,QCIFで符
号化されたときは1画面は3個のGOB32で構成さ
れ,それらのGOB32には1,3,5のGNが付与さ
れる。
When coded by CIF, there are 12 GOBs 32 constituting one screen.
GN of 1 to 12 is given to. Further, when encoded by QCIF, one screen is composed of three GOBs 32, and GNs of 1, 3, and 5 are given to these GOBs 32.

【0012】図13は,CIFで符号化された場合のG
OB単位による画面の分割のし方と画面上の各位置のG
OBのGNを示す図である。図13において,37は画
面全体,38は画面の各位置に対応するGOBを表す。
また図14は,QCIFで符号化された場合のGOB単
位による画面の分割のし方と画面上の各位置のGOBの
GNを示す図である。図14において,37は画面全
体,39は画面の各位置に対応するGOBを表す。図1
3,図14から明らかなように,QCIFで符号化され
た信号のGOBの数は,CIFで符号化された信号のG
OBの数の1/4である。
FIG. 13 shows G when coded by CIF.
How to divide the screen by OB unit and G at each position on the screen
It is a figure which shows GN of OB. In FIG. 13, 37 represents the entire screen, and 38 represents GOBs corresponding to respective positions on the screen.
FIG. 14 is a diagram showing how to divide a screen by GOB unit and GN of GOB at each position on the screen when encoded by QCIF. In FIG. 14, 37 indicates the entire screen, and 39 indicates GOB corresponding to each position on the screen. Figure 1
3, as is clear from FIG. 14, the number of GOBs of the signal coded by QCIF is G of the signal coded by CIF.
It is 1/4 of the number of OBs.

【0013】図15は,各GOBのMBへの分割のされ
方を示す。図15において,40は各GOBのGOBヘ
ッダを除いた部分,41はGOB内の画面上各位置に対
応するMBを表す。CIFで符号化された場合も,QC
IFで符号化された場合もGOBを構成するMB41の
数は同一であり,その数は33である。従って,QCI
Fで符号化された信号の画素の数は,CIFで符号化さ
れた信号の画素の数の1/4となる。
FIG. 15 shows how each GOB is divided into MBs. In FIG. 15, 40 is a portion excluding the GOB header of each GOB, and 41 is an MB corresponding to each position on the screen in the GOB. Even when encoded with CIF, QC
Even when coded by IF, the number of MBs 41 forming the GOB is the same, and the number is 33. Therefore, QCI
The number of pixels of the signal encoded by F is 1/4 of the number of pixels of the signal encoded by CIF.

【0014】本発明では,複数の映像信号からGOBま
たはMB単位で信号を抽出し,GOB単位の場合にはG
Nが重複しないように,MB単位の場合には同一のGO
B内ではMBAが重複しないように調整して組み合わ
せ,1映像信号を作成する。以下に,本発明を実施例に
従って詳細に説明する。
According to the present invention, signals are extracted from a plurality of video signals in units of GOB or MB, and in the case of GOB units, G is extracted.
The same GO in MB units so that N does not overlap
In B, the MBAs are adjusted and combined so that they do not overlap to create one video signal. Hereinafter, the present invention will be described in detail according to examples.

【0015】図2は,本発明の実施例を説明するための
GOBと表示位置との関係図である。図2に従って,あ
る映像信号に他の映像信号の部分を合成して1映像信号
を作成する例を説明する。1は映像信号Aが表示された
ときの全体の画面,2は映像信号Bが表示されたときの
全体の画面,3は映像信号Aが表示されたときの各GO
Bの表示位置と表示内容,4は映像信号Bが表示された
ときの各GOBの表示位置と表示内容を表す。各GOB
に付された括弧内のA1〜A12およびB1〜B12の
文字および数字は,各映像信号の各GOBの表示内容を
区別するためのものである。CIFで符号化された場合
の例であるため,映像信号A,Bとも1画面が12個の
GOBで構成される。
FIG. 2 is a relationship diagram between GOB and display position for explaining the embodiment of the present invention. An example in which one video signal is created by synthesizing a part of another video signal with another video signal will be described with reference to FIG. 1 is the entire screen when the video signal A is displayed, 2 is the entire screen when the video signal B is displayed, 3 is each GO when the video signal A is displayed
B indicates the display position and display content, and 4 indicates the display position and display content of each GOB when the video signal B is displayed. Each GOB
The characters and numbers of A1 to A12 and B1 to B12 in parentheses for distinguishing the display contents of each GOB of each video signal. Since this is an example of the case of being encoded by CIF, one screen of both video signals A and B is composed of 12 GOBs.

【0016】例えば,画面1の上半分と画面2の下半分
を合成する場合には,映像信号AからGNが1〜6の6
個のGOB,映像信号BからGNが7〜12の6個のG
OBを抽出し,これらを組み合わせて1個の新映像信号
とする。図3は合成映像の表示のされ方を示す図であ
る。5は合成映像の画面全体であり,上半分は画面1の
上半分と同一で,下半分は画面2の下半分と同一であ
る。
For example, when the upper half of the screen 1 and the lower half of the screen 2 are combined, the video signals A to GN of 6 from 1 to 6 are used.
6 Gs with 7 to 12 GNs from GOB and video signal B
OBs are extracted and combined to form one new video signal. FIG. 3 is a diagram showing how a composite image is displayed. Reference numeral 5 denotes the entire screen of the composite video, the upper half of which is the same as the upper half of the screen 1 and the lower half is the same as the lower half of the screen 2.

【0017】また,例えば画面1の上半分と画面2の上
半分を合成する場合には,映像信号BのGNが1〜6の
6個のGOBを抽出した後,それらのGNを7〜12に
変更し,映像信号Aの1〜6の6個のGOBと組み合わ
せるか,または映像信号AのGNが1〜6の6個のGO
Bを抽出した後,それらのGNを7〜12に変更し,映
像信号Bの1〜6の6個のGOBと組み合わせて,1個
の新映像信号とする。図4は,その合成映像の表示のさ
れ方を示す図である。6または7は合成映像の画面全体
であり,上半分は画面1の上半分と同一で下半分は画面
2の上半分と同一であるか,または上半分は画面2の上
半分と同一で,下半分は画面1の上半分と同一である。
In addition, for example, when the upper half of the screen 1 and the upper half of the screen 2 are combined, six GOBs having GNs 1 to 6 of the video signal B are extracted, and then those GNs 7 to 12 are extracted. To the six GOBs of the video signal A of 1 to 6 or the six GOs of which the GN of the video signal A is 1 to 6
After extracting B, the GNs thereof are changed to 7 to 12 and combined with 6 GOBs of 1 to 6 of the video signal B to form one new video signal. FIG. 4 is a diagram showing how the composite video is displayed. 6 or 7 is the whole screen of the composite video, the upper half is the same as the upper half of screen 1 and the lower half is the same as the upper half of screen 2, or the upper half is the same as the upper half of screen 2, The lower half is the same as the upper half of screen 1.

【0018】上記では各映像信号から6個ずつのGOB
を抽出して組み合わせる例を説明したが,両映像信号か
ら抽出したGOBの数が12個になるように抽出するの
であれば,任意の位置の任意の数のGOBの組み合わせ
が可能である。
In the above, six GOBs are provided from each video signal.
Although the example of extracting and combining is described, if the number of GOBs extracted from both video signals is 12, the combination of any number of GOBs at any position is possible.

【0019】各映像信号から6個ずつのGOBを抽出し
て組み合わせる処理手順の例を,図5のフローチャート
に従って説明する。 (a) CIFにより第1の映像を符号化する。
An example of a processing procedure for extracting and combining six GOBs from each video signal will be described with reference to the flowchart of FIG. (a) Encode the first video with CIF.

【0020】(b) 符号化した第1の映像信号をGOB単
位で抽出する。 (c) 同様に,CIFにより第2の映像を符号化する。 (d) 符号化した第2の映像信号をGOB単位で抽出す
る。
(B) The encoded first video signal is extracted in GOB units. (c) Similarly, the second video is encoded by CIF. (d) The encoded second video signal is extracted in GOB units.

【0021】(e) 次に,第1の映像信号の各GOB番号
(GN)と第2の映像信号の各GOB番号(GN)とが
重複しないように,かつGOBの数が12個となるよう
にGOBを組み合わせる。
(E) Next, each GOB number (GN) of the first video signal does not overlap with each GOB number (GN) of the second video signal, and the number of GOBs is 12. To combine GOBs.

【0022】(f) 組み合わせた12個のGOBを合成さ
れた映像信号とする。 (g) その合成映像信号を画面に表示する。 (h) これにより第1の映像と第2の映像からの合成画面
が作成されることになる。
(F) The 12 combined GOBs are used as a combined video signal. (g) Display the composite video signal on the screen. (h) As a result, a composite screen is created from the first video and the second video.

【0023】図6は,4映像について合成する実施例を
説明するための図である。8,9,10,11はそれぞ
れ映像信号C,E,D,Fを表示したときの1画面全体
を表す。12,13,14,15はそれぞれ映像信号
C,E,D,Fを構成するGOBを表す。また,各GO
Bに付された括弧内のC1〜C12,D1〜D12,E
1〜E12,F1〜F12の文字および数字は,各映像
信号の各GOBの表示内容を区別するためのものであ
る。
FIG. 6 is a diagram for explaining an embodiment in which four images are combined. Reference numerals 8, 9, 10, and 11 respectively represent one screen when the video signals C, E, D, and F are displayed. Reference numerals 12, 13, 14, and 15 represent GOBs forming the video signals C, E, D, and F, respectively. Also, each GO
C1 to C12, D1 to D12, E in parentheses attached to B
The letters and numbers 1 to E12 and F1 to F12 are for distinguishing the display contents of each GOB of each video signal.

【0024】例えば,画面8の左上1/4,画面9の右
上1/4,画面10の左下1/4,画面11の右下1/
4の部分を合成する場合には,映像信号CからGNが
1,3,5の3個のGOB,映像信号DからGNが2,
4,6の3個のGOB,映像信号EからGNが,7,
9,11の3個のGOB,映像信号FからGNが8,1
0,12の3個のGOBを抽出し,これらを組み合わせ
て1個の映像信号を作成する。図7は,その合成映像の
表示のされ方を示す図である。16は合成映像の画面全
体を表し,左上1/4は画面8の左上1/4と同一で,
右上1/4は画面9の右上1/4と同一で,左下1/4
は画面10の左下1/4と同一で,右下1/4は画面1
1の右下1/4と同一である。
For example, the upper left 1/4 of the screen 8, the upper right 1/4 of the screen 9, the lower left 1/4 of the screen 10, the lower right 1 / of the screen 11
In the case of synthesizing the portion of 4, the video signals C to GN are three GOBs of 1, 3 and 5, and the video signals D to GN of 2,
Three GOBs 4, 6 and GN from video signals E to 7,
Three GOBs 9 and 11, GN from video signal F is 8, 1
Three GOBs 0 and 12 are extracted, and these are combined to create one video signal. FIG. 7 is a diagram showing how the composite video is displayed. 16 represents the entire screen of the composite video, and the upper left 1/4 is the same as the upper left 1/4 of the screen 8,
The upper right 1/4 is the same as the upper right 1/4 of the screen 9, and the lower left 1/4
Is the same as the lower left quarter of the screen 10, and the lower right quarter is the screen 1
It is the same as the lower right quarter of 1.

【0025】また,例えば,画面8〜11のそれぞれの
左上1/4の部分を組み合わせて1画面を構成する場合
であれば,映像信号C〜FのGNが1,3,5のGOB
をそれぞれ抽出し,映像信号Dから抽出したGOBのG
Nを2,4,6に,映像信号Eから抽出したGOBのG
Nを7,9,11に,映像信号Fから抽出したGOBの
GNを8,10,12に変更し,これらを組み合わせて
1個の映像信号を作成する。図8は,その合成映像の表
示のされ方を示す図である。17は合成映像の画面全体
を表し,左上1/4は画面8の左上1/4と同一で,右
上1/4は画面9の左上1/4と同一で,左下1/4は
画面10の左上1/4と同一で,右下1/4は画面11
の左上1/4と同一である。
Further, for example, in the case of combining one upper left quarter portion of each of the screens 8 to 11 to form one screen, the GNs of the video signals C to F have GOBs of 1, 3 and 5 respectively.
G of GOB extracted from video signal D
G of GOB extracted from video signal E with N set to 2, 4, 6
N is changed to 7, 9, 11 and GN of GOB extracted from the video signal F is changed to 8, 10, 12, and these are combined to create one video signal. FIG. 8 is a diagram showing how the composite video is displayed. Reference numeral 17 represents the entire screen of the composite video, the upper left 1/4 is the same as the upper left 1/4 of the screen 8, the upper right 1/4 is the same as the upper left 1/4 of the screen 9, and the lower left 1/4 is the screen 10. Same as upper left quarter, lower right quarter is screen 11
It is the same as the upper left quarter of.

【0026】図6を用いた上記の説明では各映像信号か
ら4個ずつのGOBを抽出して組み合わせる例を説明し
たが,全映像信号から抽出したGOBの数が12個にな
るように抽出するのであれば,任意の位置の任意の数の
GOBの組み合わせが可能である。
In the above description with reference to FIG. 6, an example in which four GOBs are extracted from each video signal and combined is explained, but extraction is performed so that the number of GOBs extracted from all video signals is 12. If so, it is possible to combine any number of GOBs at any position.

【0027】上記では2個または4個の映像信号からG
OBを抽出して合成する例を示したが,3個または5個
以上の映像信号から合計12個のGOBを抽出して上記
と同様にして合成することも可能である。
In the above, G from 2 or 4 video signals is used.
Although an example in which OBs are extracted and combined is shown, a total of 12 GOBs may be extracted from 3 or 5 or more video signals and combined in the same manner as described above.

【0028】抽出したGOBが12個に満たない場合に
は,CIFで符号化した映像信号の条件を満たさないた
め,復号装置が受信できる映像信号とならない。本発明
では,この場合には不足するGOBにつきGOBヘッダ
のみを再現する。この場合の実施例を図6により説明す
る。
When the number of extracted GOBs is less than 12, the condition of the video signal encoded by CIF is not satisfied, so that the video signal cannot be received by the decoding device. In the present invention, in this case, only the GOB header is reproduced for the missing GOB. An embodiment in this case will be described with reference to FIG.

【0029】例えば,画面8〜10のそれぞれの左上1
/4の部分を組み合わせて1画面を構成する場合であれ
ば,映像信号C,D,EのGNが1,3,5のGOBを
それぞれ抽出し,映像信号Dから抽出したGOBのGN
を2,4,6に,映像信号Eから抽出したGOBのGN
を7,9,11に変更する。画面右下1/4に相当する
部分は,例えば映像信号CのGNが8,10,12の3
個のGOBのGOBヘッダを抽出してGNが8,10,
12の3個のGOBのダミー信号とする。これらの信号
を組み合わせて1個の映像信号を作成する。
For example, the upper left 1 of each of the screens 8-10
In the case of constructing one screen by combining / 4 parts, GOBs having GNs of video signals C, D, and E of 1, 3, and 5 are respectively extracted, and GNs of GOBs extracted from the video signal D are extracted.
GN of GOB extracted from video signal E to 2, 4 and 6
To 7, 9, and 11. The portion corresponding to the lower right quarter of the screen is, for example, 3 when the GN of the video signal C is 8, 10, or 12.
The GOB header of each GOB is extracted and the GN is 8, 10,
Twelve GOB dummy signals are used. These signals are combined to create one video signal.

【0030】図9は,ダミー信号を用いた場合の合成映
像の表示のされ方を示す図である。18は合成映像の画
面全体を表し,左上1/4には画面8の左上1/4と同
一の映像が,右上1/4には画面9の左上1/4と同一
の映像が,左下1/4には画面10の左上1/4と同一
の映像が表示される。右下1/4は表示が無い。
FIG. 9 is a diagram showing how a composite image is displayed when a dummy signal is used. Reference numeral 18 represents the entire screen of the composite video. In the upper left 1/4, the same video as the upper left 1/4 of the screen 8, in the upper right 1/4, the same video as the upper left 1/4 of the screen 9, and in the lower left 1 The same image as the upper left quarter of the screen 10 is displayed on / 4. There is no display in the lower right quarter.

【0031】以上の3つの画面の各々左上1/4を組み
合わせる処理手順の例を,図10のフローチャートに従
って説明する。 (a) CIFにより第1・第2・第3の映像を符号化す
る。
An example of the processing procedure for combining the upper left quarter of each of the above three screens will be described with reference to the flowchart of FIG. (a) Encode the first, second and third images by CIF.

【0032】(b) 符号化した第1・第2・第3の映像信
号について,GOB番号(GN)が1・3・5であるG
OBを抽出する。 (c) 第1の映像信号のGOBであってGOB番号が1・
3・5のものを,合成すべき映像信号のGOBであって
GOB番号が1・3・5のものとする。
(B) For the encoded first, second and third video signals, the GOB number (GN) is 1.3.5.
Extract OB. (c) GOB of the first video signal and GOB number is 1
It is assumed that the GOB of the video signal to be synthesized is 3.5 and the GOB number of the GOB is 3.5.

【0033】(d) 第2の映像信号のGOBであってGO
B番号が1・3・5のものを,合成すべき映像信号のG
OBであってGOB番号が2・4・6のものとする。 (e) 第3の映像信号のGOBであってGOB番号が1・
3・5のものを,合成すべき映像信号のGOBであって
GOB番号が7・9・11のものとする。
(D) GOB of the second video signal, which is GO
G number of the video signal to be combined with B number 1.35.
It is assumed that the OB has a GOB number of 2,4,6. (e) GOB of the third video signal and GOB number is 1
The GOB of the video signal to be synthesized is 3.5, and the GOB number of the GOB is 7.9.11.

【0034】(f) 第1の映像信号について,GOB番号
が8・10・12であるGOBのGOBヘッダを抽出す
る。 (g) 第1の映像信号のGOBであってGOB番号が8・
10・12であるGOBのGOBヘッダを,合成すべき
映像信号のGOBであってGOB番号が8・10・12
のもののダミー信号とする。
(F) With respect to the first video signal, the GOB header of the GOB whose GOB number is 8.10.12 is extracted. (g) GOB of the first video signal and GOB number is 8
The GOB header of the GOB of 10.12 is the GOB of the video signal to be combined and the GOB number is 8.10.12.
The dummy signal of

【0035】(h) 以上により合成すべき映像信号の12
個のGOBがそろう。 (i) その合成映像信号を画面に表示する。 (j) これにより第1・第2・第3の映像信号の各々左上
4分の1の部分を組み合わせた合成画面が作成されるこ
とになる。
(H) 12 of the video signals to be synthesized by the above
There will be one GOB. (i) Display the composite video signal on the screen. (j) As a result, a combined screen in which the upper left quadrant of each of the first, second and third video signals is combined is created.

【0036】以上においては,合成画面の中で元の位置
と異なる位置に表示する場合,GNを新たな位置に対応
したGNに変更するように説明したが,GOBヘッダと
GOBの内容とを別々に抽出する方法で変更処理なしに
合成信号を得ることも可能である。例えば,図8の合成
画面を作成する場合の例で説明すると,映像信号Cから
GNが1,3,5のGOBを抽出し,映像信号DからG
Nが2,4,6のGOBヘッダとGNが1,3,5のG
OBの内容を抽出し,映像信号EからGNが7,9,1
1のGOBヘッダとGNが1,3,5のGOBの内容を
抽出し,映像信号FからGNが8,10,12のGOB
ヘッダとGNが1,3,5のGOBの内容を抽出し,こ
れらを組み合わせて1個の映像信号を作成する。
In the above description, when the GN is displayed at a position different from the original position in the composite screen, the GN is changed to the GN corresponding to the new position, but the GOB header and the contents of the GOB are separated. It is also possible to obtain a composite signal without modification processing by the method of extracting into. For example, in the case of creating the composite screen shown in FIG. 8, GOBs having GNs of 1, 3, and 5 are extracted from the video signal C, and the video signals D to G are extracted.
GOB header with N = 2,4,6 and G with GN = 1,3,5
OB content is extracted and GN is 7, 9, 1 from video signal E
The contents of the GOB header of 1 and the GOB of GN of 1, 3, 5 are extracted, and the GOB of GN of 8, 10, 12 from the video signal F is extracted.
The contents of the GOB whose header and GN are 1, 3 and 5 are extracted, and these are combined to create one video signal.

【0037】以上ではGOB単位で合成する方法を説明
したが,MB単位で合成することも可能である。この場
合もGOB単位で合成する場合と同様の考え方で,GO
BヘッダとMBヘッダを合成後の表示位置に対応したも
のになるように各ヘッダとMBの内容を抽出して組み合
わせ,1映像信号とする。
Although the method of synthesizing in GOB units has been described above, it is also possible to synthesize in MB units. In this case as well, the same idea as in the case of combining in GOB units is used.
The contents of each header and MB are extracted and combined so as to correspond to the display position after combining the B header and MB header, and one video signal is obtained.

【0038】また,以上ではCIFで符号化された映像
信号について説明したが,QCIFで符号化された映像
信号についてもCIFの場合と同様に,GOB単位また
はMB単位で合成が可能である。
Although the video signal coded by CIF has been described above, the video signal coded by QCIF can be combined in GOB unit or MB unit as in the case of CIF.

【0039】図11は,以上に説明した本発明の方法を
実施するための装置例のブロック図である。ヘッダ検出
部19は,入力端20から入力されたCIFまたはQC
IFで符号化された映像信号を受信し,フレームヘッダ
およびGOBヘッダを検出し,フレームヘッダの先頭お
よびGOBヘッダの先頭と末尾のタイミング信号を発生
する。21はフレームメモリであり,入力端20から入
力された映像信号を遅延部22を介して受信し,制御部
23の制御を受けて一時的に記憶する。各種ヘッダや各
映像データはフレームメモリ21上の所定位置に記憶さ
れる。ヘッダは固定長でないため,ヘッダを記憶する部
分は予想される最大の容量を用意する。
FIG. 11 is a block diagram of an example of an apparatus for carrying out the method of the present invention described above. The header detection unit 19 receives the CIF or QC input from the input end 20.
The video signal encoded by the IF is received, the frame header and GOB header are detected, and timing signals at the head of the frame header and the head and tail of the GOB header are generated. Reference numeral 21 denotes a frame memory, which receives the video signal input from the input terminal 20 via the delay unit 22 and temporarily stores it under the control of the control unit 23. Various headers and video data are stored in predetermined positions on the frame memory 21. Since the header is not fixed length, prepare the maximum expected capacity for the part that stores the header.

【0040】制御部23は,ヘッダ検出部19から前記
タイミング信号を受信して,フレームヘッダの先頭,G
OBヘッダの先頭,GOBヘッダに引き続く内容の先頭
の各タイミングを識別し,識別したタイミングに基づい
て遅延部22の遅延時間の制御とフレームメモリ21の
書き込み制御を行う。遅延部22の遅延時間は,書き込
み制御の対象となる映像信号のフレームメモリ21への
入力タイミングが制御部23のフレームメモリ21への
書き込み制御タイミングと一致するように制御される。
遅延部22には,例えばファーストインファーストアウ
トレジスタ(FIFO)が使用できる。
The control unit 23 receives the timing signal from the header detection unit 19, and detects the start of the frame header, G
Each timing of the head of the OB header and the head of the content following the GOB header is identified, and the delay time of the delay unit 22 and the writing of the frame memory 21 are controlled based on the identified timing. The delay time of the delay unit 22 is controlled so that the input timing of the video signal to be write-controlled to the frame memory 21 matches the write control timing of the control unit 23 to the frame memory 21.
A first-in first-out register (FIFO) can be used for the delay unit 22, for example.

【0041】合成の対象となる映像信号がn個ある場合
には,ヘッダ検出部19,フレームメモリ21,遅延部
22をn組用意する。図11の場合には,4組の例が示
されている。以下において,入力端201 には映像信号
C,入力端202 には映像信号D,入力端203 には映
像信号E,入力端204 には映像信号Fが入力されるも
のとする。
When there are n video signals to be combined, n sets of header detection section 19, frame memory 21, and delay section 22 are prepared. In the case of FIG. 11, four sets of examples are shown. In the following, it is assumed that the video signal C is input to the input terminal 20 1 , the video signal D is input to the input terminal 20 2 , the video signal E is input to the input terminal 20 3 , and the video signal F is input to the input terminal 20 4 .

【0042】24は映像合成情報発生部であり,例えば
前記の画面8〜11のそれぞれの左上1/4の部分を合
成する場合であれば,映像信号C〜FのGNが1,3,
5のGOBを合成の対象として指定し,また映像信号C
に対してGNが1,3,5,映像信号Dに対してGNが
2,4,6,映像信号Eに対してGNが7,9,11,
映像信号Fに対してGNが8,10,12をこれらのG
OBの表示位置として指定して映像合成情報とする。こ
れらの映像合成情報は,予め映像合成情報発生部24内
のROMなどのメモリに記憶させておくか,キーボード
を使用して入力するか,スイッチの切り替えによって指
定するなどの方法によって発生させることができる。
Reference numeral 24 denotes a video composition information generating section. For example, in the case of composing the upper left ¼ portion of each of the screens 8 to 11, the GN of the video signals C to F is 1, 3, 3.
GOB of No. 5 is designated as a synthesis target, and the video signal C
GN is 1, 3, 5, GN is 2, 4, 6 for video signal D, GN is 7, 9, 11, for video signal E,
GN is 8, 10, 12 for the video signal F
It is designated as the display position of the OB and is used as the video composition information. These pieces of video composition information can be stored in advance in a memory such as a ROM in the video composition information generating unit 24, can be input using a keyboard, or can be generated by a method such as specification by switching a switch. it can.

【0043】これらの映像合成情報は,制御部23に送
信され,制御部23に付属するメモリ25に記憶され
る。制御部23は,メモリ25に記憶されている合成情
報に従ってフレームメモリ21の読み出し制御を行う。
ここで挙げている例の場合には,例えばフレームメモリ
211 からまずフレームヘッダおよびGNが1のGOB
とGNが2のGOBヘッダを読み出し,次いでフレーム
メモリ212 からGNが1のGOBの内容,フレームメ
モリ211 からGNが3のGOBとGNが4のGOBヘ
ッダ,フレームメモリ212 からGNが3のGOBの内
容,フレームメモリ211 からGNが5のGOBとGN
が6のGOBヘッダ,フレームメモリ21 2 からGNが
5のGOBの内容,フレームメモリ211 からGNが7
のGOBヘッダ,フレームメモリ213 からGNが1の
GOBの内容,フレームメモリ21 1 からGNが8のG
OBヘッダ,フレームメモリ214 からGNが1のGO
Bの内容,フレームメモリ211 からGNが9のGOB
ヘッダ,フレームメモリ21 3 からGNが3のGOBの
内容,フレームメモリ211 からGNが10のGOBヘ
ッダ,フレームメモリ214 からGNが3のGOBの内
容,フレームメモリ211 からGNが11のGOBヘッ
ダ,フレームメモリ213 からGNが5のGOBの内
容,フレームメモリ211 からGNが12のGOBヘッ
ダ,フレームメモリ214 からGNが5のGOBの内容
の順で読み出し,さらにこれらを同じ順番で繰り返し読
み出す。この読み出しの結果によって作成される映像信
号を表示すると,前述した図8の画面となる。
These pieces of video composition information are sent to the control unit 23.
And is stored in the memory 25 attached to the control unit 23.
It The control unit 23 controls the composite information stored in the memory 25.
According to the report, the read control of the frame memory 21 is performed.
In the case of the example given here, for example, the frame memory
211First, GOB with frame header and GN = 1
And GN read GOB header 2 and then frame
Memory 212To the contents of GOB with GN of 1 and frame
Mori 211To GOB with GN of 3 and GOB with GN of 4
Frame memory 212To GOB with GN of 3
Y, frame memory 211To GN 5 GOB and GN
GOB header of 6 and frame memory 21 2To GN
5 GOB contents, frame memory 211To GN 7
GOB header and frame memory 213To 1 for GN
Contents of GOB, frame memory 21 1To G with an GN of 8
OB header, frame memory 21FourTo GO with 1 GN
Contents of B, frame memory 211To GOB with GN of 9
Header, frame memory 21 3From GOB with a GN of 3
Contents, frame memory 211To GOB with GN of 10
Frame memory 21FourTo GOB with GN of 3
Y, frame memory 211To 11 GOB heads with GN
Frame memory 213To GOB with GN of 5
Y, frame memory 211To 12 GOB heads
Frame memory 21FourTo the content of GOB with GN of 5
Read in the order of, and then read these repeatedly in the same order.
To stick out. The video signal created by the result of this reading
When the number is displayed, the screen shown in FIG. 8 is displayed.

【0044】合成対象のGOBが12個に満たない場合
には不足GOBに対してはGOBヘッダのみをフレーム
メモリ211 から読み出せばよい。上記において,GO
Bヘッダはフレームメモリ211 以外のフレームメモリ
から読み出してもよい。また,GOBヘッダのGNとG
OBの内容のGNとが異なる場合には,GOBヘッダの
読み出しは同一のフレームメモリからであってもよい
し,異なるフレームメモリからであってもよい。合成の
対象となる各映像信号の各ヘッダは予め一致させておく
と信号の一貫性に関する問題がない。
When the number of GOBs to be combined is less than 12, it is sufficient to read only the GOB headers from the frame memory 21 1 for insufficient GOBs. In the above, GO
The B header may be read from a frame memory other than the frame memory 21 1 . Also, GN and G of GOB header
When the GN of the OB content is different, the GOB header may be read from the same frame memory or from different frame memories. If the headers of the video signals to be combined are matched in advance, there is no problem with signal consistency.

【0045】MB単位で合成する場合も,同様に各ヘッ
ダとそのヘッダに付随する内容とを適宜組み合わせて順
次各フレームメモリ21から読み出すことにより,合成
映像信号が得られる。この場合は,ヘッダ検出部19を
利用してMBヘッダの先頭および末尾のタイミング検出
を行うことが必要となる。
Also in the case of synthesizing in MB units, similarly, each header and the contents attached to the header are appropriately combined and sequentially read from each frame memory 21, so that a synthesized video signal can be obtained. In this case, it is necessary to use the header detection unit 19 to detect the timing of the beginning and end of the MB header.

【0046】QCIFの映像信号に対しても同様の手法
によりフレームメモリ21の書き込み,読み出しを行っ
て合成映像信号を作成することができる。フレームメモ
リ21は,書き込みと読み出しが同時にできるメモリで
ある場合には,それぞれ1画面分の容量があれば十分で
あるが,書き込みと読み出しが同時にはできないメモリ
を使用する場合には,それぞれ2画面ないしは3画面分
の容量が必要である。
With respect to the QCIF video signal, the composite video signal can be created by writing and reading the frame memory 21 by the same method. If the frame memory 21 is a memory capable of writing and reading at the same time, it is sufficient if each has a capacity of one screen, but if a memory that cannot perform writing and reading at the same time is used, it has two screens each. Or, the capacity for 3 screens is required.

【0047】上記に説明した画面合成は,動き補償が無
い符号化が行われた映像信号に対しては任意の映像信号
に対して可能であるが,動き補償がある符号化が行われ
た映像信号の場合には,合成部分の境界で互いに接する
MBの間で動き補償の関係が一致しなくなるため,一般
的には困難である。以下に動き補償があるときでも本発
明が有効となる場合を説明する。
The above-described screen synthesis can be performed on an arbitrary video signal for a video signal encoded without motion compensation, but a video image encoded with motion compensation is used. In the case of a signal, it is generally difficult because the relationship of motion compensation does not match between MBs that are in contact with each other at the boundary of the combined portion. The case where the present invention is effective even when there is motion compensation will be described below.

【0048】本発明の実施例の説明に先立って行った説
明から明らかなように,QCIFで符号化された映像信
号は,CIFで符号化された映像信号の1/4のGOB
から構成され,QCIFで符号化された映像信号を構成
するGOBのGNは,CIFで符号化された映像信号を
構成するGOBの内の画面左上1/4の部分のGOBの
GNと同一である。
As is clear from the description given prior to the description of the embodiments of the present invention, the video signal coded by QCIF has a GOB of 1/4 of the video signal coded by CIF.
And the GN of the GOB that composes the video signal encoded by QCIF is the same as the GN of the GOB in the upper left quarter of the screen of the GOB that composes the video signal encoded by CIF. .

【0049】この特徴を利用すると,QCIFで符号化
された映像信号のソースフォーマットをCIFに対応し
た情報に変更することにより,縦横を1/2に縮小した
映像信号が得られる。この映像信号はGNが1,3,5
のGOBのみに信号が存在するため,CIFとして完成
された信号となっていないが,不足するGOBにつきG
OBヘッダとMBヘッダとをダミー信号として付加する
ことにより,完成されたCIFの映像信号とすることが
できる。
By utilizing this feature, the source format of the video signal coded by QCIF is changed to the information corresponding to CIF, so that the video signal whose vertical and horizontal dimensions are reduced to 1/2 can be obtained. This video signal has a GN of 1, 3, 5
Since there is a signal only in the GOB of the above, the signal is not completed as a CIF, but G is insufficient for the GOB.
A completed CIF video signal can be obtained by adding the OB header and the MB header as dummy signals.

【0050】このようにして得られたCIFの映像信号
は,画面の左上1/4の部分に縮小されて表示すること
ができる映像信号となるが,映像データが存在する画面
の1/4の部分はもともとはQCIFで符号化された映
像信号であるから,その最外周のMBはその外側と相互
に影響を及ぼさない動き補償となっている。即ち,右上
1/4の映像部分,左下1/4の映像部分とは動き補償
の関係が存在しない。さらに,ソースフォーマットを変
更して得られた縮小映像信号のGNを1,3,5から,
例えば2,4,6に変更して,右上1/4に移動または
複写した場合などでも,左上1/4の部分および右下1
/4の部分とは動き補償の関係が存在しないため,異常
が発生しない。ソースフォーマットを変更して得られた
縮小映像信号およびソースフォーマットを変更して得ら
れた縮小映像信号を移動または複写して作成した右上1
/4,左下1/4,右下1/4の各部分に対応する映像
信号を組み合わせて合成画面を作成した場合でも,各1
/4の部分の境界では相互に動き補償の関係が存在しな
い独立した映像信号となり,何ら異常が発生しない。
The CIF video signal thus obtained becomes a video signal which can be reduced and displayed in the upper left ¼ portion of the screen, but is ¼ of the screen where the video data exists. Since the part is originally a video signal encoded by QCIF, the outermost MB is motion compensated so as not to affect the outside. That is, there is no relationship of motion compensation between the upper right ¼ video part and the lower left ¼ video part. Furthermore, the GN of the reduced video signal obtained by changing the source format is changed from 1, 3, 5 to
For example, if you change to 2, 4, 6 and move or copy to the upper right quarter, the upper left quarter and lower right 1
Since there is no motion compensation relationship with the / 4 part, no abnormality occurs. Upper right 1 created by moving or copying the reduced video signal obtained by changing the source format and the reduced video signal obtained by changing the source format
/ 4, lower left 1/4, lower right 1/4, even if a combined screen is created by combining the video signals corresponding to each part, each 1
At the boundary of the / 4 portion, independent video signals having no mutual motion compensation relationship are present, and no abnormality occurs.

【0051】合成を行うだけでは映像データ量が増加し
て規定値を越える場合には,制御部23は,フレーム数
を減少させてデータ量が規定値以下になるようにフレー
ムメモリ21からの読み出し制御を行う。
If the video data amount increases and exceeds the specified value only by combining, the control unit 23 decreases the number of frames and reads from the frame memory 21 so that the data amount becomes equal to or less than the specified value. Take control.

【0052】以上においては,CCITT勧告H.26
1準拠の符号化装置により符号化された映像信号に関連
して本発明を説明したが,H.261と同様に画面を分
割し,その分割単位の位置を識別する情報が付与されて
いるような符号化を行う方式であれば,他の方式であっ
ても本発明が適用できる。その場合には,CIF,QC
IF,GOB,MB等の用語は,その方式における対応
する用語に読み換えて適用すればよい。
In the above, CCITT Recommendation H.264. 26
Although the present invention has been described in the context of a video signal encoded by an H.1-compliant encoder, H.264. The present invention can be applied to other methods as long as the method is such that the screen is divided in the same manner as 261 and the information for identifying the position of the division unit is added. In that case, CIF, QC
Terms such as IF, GOB, and MB may be read as the corresponding terms in the system and applied.

【0053】[0053]

【発明の効果】以上の説明から明らかなように,本発明
の方法では,符号化装置によって符号化された映像信号
の合成を行うのに復号をする必要がなく,また映像デー
タ自体の処理は一切不要で単にヘッダ内の順序を表す情
報を付け変えるだけである。従って,合成によって映像
の品質の劣化が生じない利点がある。合成された信号は
符号化された状態であるため,合成信号を遠隔地に送信
する場合などにおいては,改めて符号化するための設備
が必要ないという利点もある。また,単に信号の順序の
変更だけで合成信号が得られるため,簡単に本発明を実
施することができる。
As is apparent from the above description, in the method of the present invention, it is not necessary to perform decoding in order to synthesize the video signals encoded by the encoding device, and the processing of the video data itself is performed. It doesn't need anything at all, it just changes the ordering information in the header. Therefore, there is an advantage that the quality of the image does not deteriorate due to the combination. Since the combined signal is in a coded state, there is also an advantage that no equipment for re-encoding is required when transmitting the combined signal to a remote place. Further, since the combined signal can be obtained by simply changing the order of the signals, the present invention can be easily implemented.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の概要説明図である。FIG. 1 is a schematic explanatory diagram of the present invention.

【図2】本発明の実施例を説明するための画面の位置と
GOBとの関係図である。
FIG. 2 is a relationship diagram of a screen position and GOB for explaining an embodiment of the present invention.

【図3】本発明の合成画面作成方法によって合成された
画面の例を示す図である。
FIG. 3 is a diagram showing an example of a screen combined by the composite screen creating method of the present invention.

【図4】本発明の合成画面作成方法によって合成された
画面の例を示す図である。
FIG. 4 is a diagram showing an example of a screen combined by the composite screen creating method of the present invention.

【図5】各映像信号から6個ずつのGOBを抽出して組
み合わせる処理手順の例を示すフローチャートである。
FIG. 5 is a flowchart showing an example of a processing procedure of extracting and combining six GOBs from each video signal.

【図6】本発明の実施例を説明するための画面の位置と
GOBとの関係図である。
FIG. 6 is a diagram showing the relationship between the screen position and GOB for explaining the embodiment of the present invention.

【図7】本発明の合成画面作成方法によって合成された
画面の例を示す図である。
FIG. 7 is a diagram showing an example of a screen combined by the composite screen creating method of the present invention.

【図8】本発明の合成画面作成方法によって合成された
画面の例を示す図である。
FIG. 8 is a diagram showing an example of a screen combined by the composite screen creating method of the present invention.

【図9】本発明の合成画面作成方法によって合成された
画面の例を示す図である。
FIG. 9 is a diagram showing an example of a screen combined by the composite screen creating method of the present invention.

【図10】3つの画面の各々左上1/4を組み合わせて
1画面を構成する処理手順の例を示すフローチャートで
ある。
FIG. 10 is a flowchart showing an example of a processing procedure for composing one screen by combining upper left quarters of three screens.

【図11】本発明の合成画面作成方法を実施するための
装置例のブロック図である。
FIG. 11 is a block diagram of an example of an apparatus for implementing the composite screen creation method of the present invention.

【図12】CCITT勧告H.261準拠コーデックで
符号化された信号のフレーム構成図である。
FIG. 12 CCITT Recommendation H.264. It is a frame block diagram of the signal encoded by the H.261 compliant codec.

【図13】CIFの場合の画面の分割のされ方を示す図
である。
FIG. 13 is a diagram showing how a screen is divided in the case of CIF.

【図14】QCIFの場合の画面の分割のされ方を示す
図である。
FIG. 14 is a diagram showing how a screen is divided in the case of QCIF.

【図15】GOBのMBへの分割のされ方を示す図であ
る。
FIG. 15 is a diagram showing how GOB is divided into MBs.

【符号の説明】[Explanation of symbols]

101,102 合成対象となる画面 111,112 符号化の処理 121,122 分割単位抽出の処理 131,132 表示位置調整の処理 140 合成処理 150 合成画面 X1,X2,…,Y1,Y2,… 画面の分割単位 101,102 Screens to be combined 111,112 Encoding processing 121,122 Division unit extraction processing 131,132 Display position adjustment processing 140 Combining processing 150 Combining screens X1, X2, ..., Y1, Y2, ... Division unit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 画面を所定の分割単位で分割し,該分割
単位の映像部分が所定の画素数で構成されるように符号
化する符号化方法により複数個の映像信号を符号化し, 複数個の前記映像信号の各一から単数または複数の分割
単位を抽出し, 該分割単位のヘッダ情報中の位置情報が合成すべき画面
の希望の表示位置を表すように調整し, 複数個の前記映像信号の各一毎に抽出された前記分割単
位を組み合せ,前記位置情報の順番に配列して一つの映
像信号を作成することを特徴とする合成画面作成方法。
1. A plurality of video signals are encoded by an encoding method in which a screen is divided by a predetermined division unit and an image portion of the division unit is encoded so that it is composed of a predetermined number of pixels. A single or a plurality of division units are extracted from each one of the video signals, and the position information in the header information of the division units is adjusted so as to represent the desired display position of the screen to be combined. A method for creating a composite screen, characterized in that the division units extracted for each one of the signals are combined and arranged in the order of the position information to create one video signal.
【請求項2】 画面を所定の分割単位で分割し,該分割
単位の映像部分が所定の画素数で構成されるように符号
化する符号化方法により複数個の映像信号を符号化し, 複数個の前記映像信号の各一から単数または複数の分割
単位を抽出し, 該分割単位のヘッダ情報中の位置情報が合成すべき画面
の希望の表示位置を表すように調整し, 複数個の前記映像信号の各一毎に抽出された前記分割単
位を組み合せ,抽出された前記分割単位の個数が該所定
の数に満たない場合には,不足する分割単位をダミー信
号により付加し,前記位置情報の順番に配列して一つの
映像信号を作成することを特徴とする合成画面作成方
法。
2. A plurality of video signals are encoded by an encoding method in which a screen is divided by a predetermined division unit and an image portion of the division unit is encoded so that it is composed of a predetermined number of pixels. A single or a plurality of division units are extracted from each one of the video signals, and the position information in the header information of the division units is adjusted so as to represent the desired display position of the screen to be combined. The division units extracted for each one of the signals are combined, and when the number of the extracted division units is less than the predetermined number, the insufficient division units are added by a dummy signal to obtain the position information. A synthetic screen creating method characterized by arranging in order to create one video signal.
JP5145898A 1993-06-17 1993-06-17 Synthesized pattern generating method Pending JPH0723205A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5145898A JPH0723205A (en) 1993-06-17 1993-06-17 Synthesized pattern generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5145898A JPH0723205A (en) 1993-06-17 1993-06-17 Synthesized pattern generating method

Publications (1)

Publication Number Publication Date
JPH0723205A true JPH0723205A (en) 1995-01-24

Family

ID=15395613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5145898A Pending JPH0723205A (en) 1993-06-17 1993-06-17 Synthesized pattern generating method

Country Status (1)

Country Link
JP (1) JPH0723205A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7019901B2 (en) 2002-01-16 2006-03-28 Fujitsu Limited Wavelength periodical filter

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7019901B2 (en) 2002-01-16 2006-03-28 Fujitsu Limited Wavelength periodical filter

Similar Documents

Publication Publication Date Title
US5371535A (en) Multiplexing transmission apparatus for image signal and multiplexing system
CN101690190B (en) Imaging device and formation method
KR100574184B1 (en) Image encoder and image encoding method, image decoder and image decoding method, and image processor and image processing method
KR100928324B1 (en) Operation method of frame buffer memory for recovering compressed video and decoding device suitable for this
US20060170762A1 (en) Video composition apparatus, video composition method and video composition program
US20110080461A1 (en) Image signal processing apparatus, image signal processing method, image display apparatus, image display method, program, and image display system
US7970262B2 (en) Buffer descriptor structures for communication between decoder and display manager
JPH03227179A (en) Picture data processing unit
US7970056B2 (en) Method and/or apparatus for decoding an intra-only MPEG-2 stream composed of two separate fields encoded as a special frame picture
JP4513487B2 (en) Video data compression device
JPH0723205A (en) Synthesized pattern generating method
US7787700B2 (en) Signal processing method, signal processing apparatus, computer-readable medium and a data recording medium
JPH08256315A (en) Multi-point simultaneous monitor control method
JP2003032679A (en) Decoder, decoding method, and program for making computer execute the same decoding method
JPH0221776A (en) Predicting static picture encoder/decoder
JP2007267349A (en) Divided image processing system, solid-state imaging device and reproduction device for use in the same, and program
JPH01140883A (en) Data coding method
US6711305B2 (en) Image processing apparatus and method
JPH08237652A (en) Picture transmission method and picture transmission system
JPH10155123A (en) Compression data display system
JP3004763B2 (en) Video signal multiplex decoder
JP3354076B2 (en) Image compression method, image expansion method, image compression device, and image expansion device
JP2001186524A (en) Video signal decoder
JP4657687B2 (en) Video monitoring device and video recording / reproducing device
JPH09307850A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061013

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091020

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101020

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees