JP2000197044A - Image processing unit, its method and computer-readable memory - Google Patents

Image processing unit, its method and computer-readable memory

Info

Publication number
JP2000197044A
JP2000197044A JP37224198A JP37224198A JP2000197044A JP 2000197044 A JP2000197044 A JP 2000197044A JP 37224198 A JP37224198 A JP 37224198A JP 37224198 A JP37224198 A JP 37224198A JP 2000197044 A JP2000197044 A JP 2000197044A
Authority
JP
Japan
Prior art keywords
image
target
information
background
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP37224198A
Other languages
Japanese (ja)
Inventor
Hirochika Matsuoka
寛親 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP37224198A priority Critical patent/JP2000197044A/en
Priority to US09/320,663 priority patent/US6546052B1/en
Publication of JP2000197044A publication Critical patent/JP2000197044A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing unit that can easily execute compositing of plural images and generate a composite image with satisfactory image quality, and to provide its method and a computer-readable memory. SOLUTION: This image processing unit extracts a characteristic of a background from coded data of at least one background image, extracts a characteristic of an object including statistic information of the image information from coded data of at least one object image, decodes the coded data of the background image to generate a background reproduction image, and generates the object reproduction image to decode the coded data of the object image. A correction device 216 corrects the object reproduction image, on the basis of the characteristics of the background and the object. An image synthesizer 217 composites the background reproduction image and the corrected object reproduction image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複数の画像を合成
する画像処理装置及びその方法、コンピュータ可読メモ
リに関するものである。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus and method for synthesizing a plurality of images, and a computer readable memory.

【0002】[0002]

【従来の技術】従来、動画像の符号化方式として、h.
261、MPEG−1、MPEG−2などが知られてい
る。これらの符号化方式は、ITUやISOによって国
際標準化されており、それぞれ、h.264勧告、IS
O11172、13818として文書化されている。ま
た、静止画符号化(例えば、JPEG符号化)を各フレ
ームに適応させることで動画像を符号化するMotio
n JPEG符号化も知られている。
2. Description of the Related Art Conventionally, h.
H.261, MPEG-1, and MPEG-2 are known. These encoding systems are internationally standardized by the ITU and ISO, and are respectively defined by h. H.264 Recommendation, IS
It is documented as O11172, 13818. In addition, a motion image is encoded by adapting still image encoding (for example, JPEG encoding) to each frame.
n JPEG encoding is also known.

【0003】以下、図19を用いて、ビデオ信号をMP
EG−1で動画像を符号化する符号化システムについて
説明する。
[0003] Hereinafter, referring to FIG.
An encoding system that encodes a moving image using EG-1 will be described.

【0004】図19は従来の符号化システムの構成を示
す図である。
FIG. 19 is a diagram showing the configuration of a conventional encoding system.

【0005】TVカメラ1001により入力されたビデ
オ信号は、動画像符号化装置1002における入力端子
1003に入力し、A/D変換器1004に出力され
る。A/D変換器1004でディジタル信号に変換され
たビデオ信号は、ブロック形成器1005に入力され、
16×16のマクロブロックをビデオ信号に基づく画像
の左上から右下方向の順に形成する。MPEG−1では
フレーム内符号化を行うI−フレーム、過去のフレーム
からフレーム間符号化を行うP−フレーム、過去と未来
のフレームからフレーム間符号化を行うB−フレームが
ある。フレームモード器1015は、これらのフレーム
のモードを決定する。フレームのモードは符号化のビッ
トレート、DCTの演算誤差の蓄積による画質劣化の防
止、画像の編集やシーンチェンジを考慮して決定され
る。
[0005] A video signal input from a TV camera 1001 is input to an input terminal 1003 of a moving picture coding apparatus 1002 and output to an A / D converter 1004. The video signal converted into a digital signal by the A / D converter 1004 is input to the block former 1005,
16 × 16 macroblocks are formed in order from the upper left to the lower right of the image based on the video signal. In MPEG-1, there are an I-frame for performing intra-frame coding, a P-frame for performing inter-frame coding from past frames, and a B-frame for performing inter-frame coding from past and future frames. The frame mode unit 1015 determines the modes of these frames. The frame mode is determined in consideration of the encoding bit rate, prevention of image quality deterioration due to accumulation of DCT calculation errors, image editing, and scene changes.

【0006】I−フレームでは、動き補償器1006は
動作せず、0を出力する。差分器1007はブロック形
成器1005の出力から動き補償器1006の出力を減
算し、DCT変換器1008に入力する。DCT変換器
1008は、入力された信号を8×8のブロック単位に
DCT変換を行い、DCT変換された信号を量子化器1
009で量子化する。次に、量子化された信号を符号器
1010で1次元に並び替え、0ラン長と値で符号を決
定する。そして、符号化された信号は、端子1011か
ら出力され、記憶媒体に記録されたり、ネットワークや
回線等を介して送信されたりする。また、量子化器10
09の出力は、逆量子化器1012で逆量子化され、逆
DCT変換器1013で逆DCT変換され、加算器10
14で動き補償器1006の出力と加算され、フレーム
メモリ1015または1016に格納される。
In an I-frame, the motion compensator 1006 does not operate and outputs 0. The subtractor 1007 subtracts the output of the motion compensator 1006 from the output of the block former 1005 and inputs the result to the DCT transformer 1008. The DCT transformer 1008 performs DCT transform on the input signal in units of 8 × 8 blocks, and converts the DCT-transformed signal into the quantizer 1.
In step 009, quantization is performed. Next, the quantized signal is one-dimensionally rearranged by the encoder 1010, and the code is determined based on the 0 run length and the value. The coded signal is output from the terminal 1011 and recorded on a storage medium or transmitted via a network or a line. Also, the quantizer 10
09 is inversely quantized by an inverse quantizer 1012, inverse DCT-transformed by an inverse DCT transformer 1013, and
At 14, the output is added to the output of the motion compensator 1006 and stored in the frame memory 1015 or 1016.

【0007】P−フレームでは、動き補償器1006を
動作させ、ブロック形成器1005の出力は、動き補償
器1006に入力され、時間的に直前のフレームの画像
が入力されるフレームメモリ1015または1016か
ら動き補償を行い動きベクトルと予測マクロブロックを
出力する。差分器1007は、ブロック形成器1005
からの入力と予測マクロブロックとの差分を求め、DC
変換器1008に入力する。DCT変換器1008は、
入力された信号にDCT変換を行い、DCT変換された
信号を量子化器1009で量子化する。量子化された信
号は符号器1010で動きベクトルとともに符号が決定
され、端子1011から出力される。また、量子化器1
009の出力は、逆量子化器1012で逆量子化され、
逆DCT変換器1013で逆DCT変換され加算器10
14で動き補償器1006の出力と加算され、フレーム
メモリ1015または1016に格納される。
In the case of a P-frame, the motion compensator 1006 is operated, and the output of the block former 1005 is input to the motion compensator 1006, from the frame memory 1015 or 1016 to which the image of the immediately preceding frame is input. Perform motion compensation and output a motion vector and a predicted macroblock. A differentiator 1007 is a block former 1005
Of the prediction macroblock and the input from the
Input to converter 1008. DCT converter 1008 is:
The input signal is subjected to DCT transform, and the DCT-transformed signal is quantized by a quantizer 1009. The sign of the quantized signal is determined together with the motion vector by the encoder 1010 and output from the terminal 1011. Quantizer 1
The output of 009 is inversely quantized by an inverse quantizer 1012,
The inverse DCT transform is performed by the inverse DCT transformer 1013 and the adder 10
At 14, the output is added to the output of the motion compensator 1006 and stored in the frame memory 1015 or 1016.

【0008】B−フレームでは、Pフレームと同様に動
き補償を行うが、動き補償器1006はフレームメモリ
1015、1016の両方から動き補償を行い、予測マ
クロブロックを生成し、符号化を行う。
In the B-frame, motion compensation is performed in the same manner as in the P frame. However, the motion compensator 1006 performs motion compensation from both the frame memories 1015 and 1016, generates a predicted macroblock, and performs encoding.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、上記従
来の画像全体を符号化する方法では、動きの無い背景部
分等の画像を繰り返して送る必要があり、符号長を無駄
に使用している。例えば、テレビ電話やテレビ会議等で
実際に動いているのは人だけであり、背景は動いていな
い。一定の時間毎に送られるI−フレームでは、この動
いていない背景画像も送られており、符号に無駄が生じ
る。図20に、その例を示す。
However, in the above-mentioned conventional method of encoding an entire image, it is necessary to repeatedly transmit an image of a background portion or the like having no motion, and the code length is wasted. For example, only a person actually moves in a videophone or a video conference, and the background does not move. In an I-frame sent at regular intervals, the background image that is not moving is also sent, resulting in wasted code. FIG. 20 shows an example.

【0010】図20では、部屋で人がテレビカメラに向
かっている状態のフレームを示している。この人105
1と背景1050は同じフレーム内で同じ符号化がなさ
れる。背景1050に動きはないため、動き補償を行え
ば符号はほとんど発生しないが、I−フレームを送ると
きには符号化される。このため、動きがない部分に関し
ても繰り返し符号を送ることになり、無駄である。ま
た、人1051の動きが大きく、符号化で大きな符号長
を発生した後のI−フレームには、十分な符号長が得ら
れない。そのため、I−フレームでは量子化係数を荒く
する必要が生じ、動きのない背景の画質まで低下させて
しまうという問題点がある。
FIG. 20 shows a frame in which a person is facing a television camera in a room. This person 105
1 and the background 1050 are encoded the same in the same frame. Since there is no motion in the background 1050, little code is generated if motion compensation is performed, but it is coded when an I-frame is sent. For this reason, a code is repeatedly sent to a portion where there is no motion, which is wasteful. In addition, a sufficient code length cannot be obtained in an I-frame after the motion of the person 1051 is large and a large code length is generated in encoding. For this reason, in the I-frame, it is necessary to make the quantization coefficient rough, and there is a problem that the image quality of a background with no motion is reduced.

【0011】そこで、MPEG−4のように背景と対象
を分離して符号化することによって符号化効率を向上さ
せることが考えられる。この場合、別な場所で撮影され
た対象を合成することも可能なので、例えば、図21に
示すように、図20におけるフレームに更にもう1人の
人1052を合成したフレームを構成できる。
Therefore, it is conceivable to improve the coding efficiency by separately coding the background and the object as in MPEG-4. In this case, it is also possible to combine an object photographed in another place, so that, for example, as shown in FIG. 21, a frame in which another person 1052 is further combined with the frame in FIG. 20 can be configured.

【0012】ところが、撮影器材の特性から生ずる色か
ぶりのため合成して得られた画像(人1052)に不自
然さが残り、見る側に違和感を与える場合がある。例え
ば、、人1052が緑かぶり傾向を示す器材で撮影し、
他方、人1051が赤かぶりの傾向を示す器材で撮影し
た場合、両者を合成した画像は色かぶりが顕著に目立
ち、非常に不自然となる。
[0012] However, an unnatural image may remain in an image (a person 1052) obtained by synthesis due to a color cast generated due to the characteristics of the photographing equipment, and the viewer may feel uncomfortable. For example, a person 1052 shoots with equipment showing a green cast,
On the other hand, when the person 1051 is photographed with a device exhibiting a tendency of red fogging, an image obtained by combining the two becomes remarkably conspicuous in color fog, and becomes very unnatural.

【0013】また、照明条件や撮影器材の特性といった
環境の相違から生ずるコントラストの相違から合成して
得られた画像にも同様に不自然さが残り、見る側に違和
感を与える場合がある。例えば、人1052が太陽光下
で、他方、人1051が人工光で撮影される場合、両者
のコントラストが大きく異なり、非常に不自然となる。
[0013] Also, an image obtained by combining images due to a difference in contrast caused by a difference in environment such as lighting conditions and characteristics of photographing equipment may also remain unnatural, giving the viewer a sense of discomfort. For example, when the person 1052 is photographed in sunlight and the person 1051 is photographed with artificial light, the contrast between the two is greatly different, which is very unnatural.

【0014】本発明は上記の問題点に鑑みてなされたも
のであり、複数の画像の合成を容易に実行でき、かつ画
品位が良好な合成画像を生成することができる画像処理
装置及びその方法、コンピュータ可読メモリを提供する
ことを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has an image processing apparatus and method capable of easily executing a synthesis of a plurality of images and generating a synthesized image having a good image quality. To provide a computer readable memory.

【0015】[0015]

【課題を解決するための手段】上記の目的を達成するた
めの本発明による画像処理装置は以下の構成を備える。
即ち、複数の画像を合成する画像処理装置であって、少
なくとも1つの背景画像の符号化データから背景特徴を
抽出する背景特徴抽出手段と、少なくとも1つの対象画
像の符号化データから画像情報の統計的情報を含む対象
特徴を抽出する対象特徴抽出手段と、前記背景画像の符
号化データを復号して背景再生画像を生成する背景復号
手段と、前記対象画像の符号化データを復号する対象再
生画像を生成する対象復号手段と、前記背景特徴と前記
対象特徴に基づいて、前記対象再生画像を補正する補正
手段と、前記背景再生画像と前記補正手段で補正された
対象再生画像を合成する合成手段とを備える。
An image processing apparatus according to the present invention for achieving the above object has the following arrangement.
That is, an image processing apparatus for synthesizing a plurality of images, a background feature extracting means for extracting a background feature from encoded data of at least one background image, and a statistical information of image information from encoded data of at least one target image. Target feature extraction means for extracting a target feature including target information, background decoding means for decoding encoded data of the background image to generate a background reproduced image, and a target reproduced image for decoding encoded data of the target image A correction means for correcting the target reproduction image based on the background feature and the target characteristic, and a synthesis means for synthesizing the background reproduction image and the target reproduction image corrected by the correction means. And

【0016】また、好ましくは、前記対象特徴抽出手段
は、前記画像情報の統計的情報に基づくヒストグラムを
算出する算出手段を備え、前記補正手段は、前記ヒスト
グラムに基づいて、前記対象画像の補正方法を決定す
る。
Preferably, the target feature extraction means includes a calculation means for calculating a histogram based on the statistical information of the image information, and the correction means includes a correction method for the target image based on the histogram. To determine.

【0017】また、好ましくは、前記対象特徴抽出手段
は、前記符号化データに含まれるブロック画像の直流情
報を前記画像情報の統計的情報として抽出する。
Preferably, the target feature extracting means extracts DC information of a block image included in the encoded data as statistical information of the image information.

【0018】また、好ましくは、前記対象特徴抽出手段
は、前記符号化データに含まれるブロック画像の低周波
情報を前記画像情報の統計的情報として抽出する。
Preferably, the target feature extracting means extracts low-frequency information of a block image included in the encoded data as statistical information of the image information.

【0019】また、好ましくは、前記背景復号手段及び
前記対象復号手段のいずれか一方あるいはその両方は、
前記符号化データから量子化データを復号する復号手段
と前記量子化データから周波数域データを算出する逆量
子化手段と前記周波数域データから空間域データを算出
する高速逆離散コサイン変換手段とを備え、前記高速逆
離散コサイン変換手段は、任意の段数のラディックスバ
タフライ演算結果を出力する出力手段を備え、前記対象
特徴抽出手段は、前記任意の段数のラディックスバタフ
ライ演算結果を画像情報の低周波情報として抽出する。
Preferably, one or both of the background decoding means and the target decoding means are
Decoding means for decoding quantized data from the encoded data, inverse quantization means for calculating frequency domain data from the quantized data, and high-speed inverse discrete cosine transform means for calculating spatial domain data from the frequency domain data. The high-speed inverse discrete cosine transform unit includes an output unit that outputs a radix butterfly operation result of an arbitrary number of stages, and the target feature extraction unit uses the radix butterfly operation result of the arbitrary number of stages as low-frequency information of image information. Extract.

【0020】また、好ましくは、前記補正手段は、当該
補正手段が入力する信号と出力する信号の入出力関係を
時系列に従ってゆるやかに変化させる時系列適応手段と
を備える。
Preferably, the correction means includes time series adaptation means for gradually changing an input / output relationship between a signal input to the correction means and a signal output from the correction means according to a time series.

【0021】また、好ましくは、前記対象特徴抽出手段
は、前記画像情報の統計的情報として、前記符号化デー
タに含まれるブロック画像の直流情報あるいは低周波情
報から画素値の最大値と最小値を抽出する。
Preferably, the target feature extracting means calculates the maximum value and the minimum value of a pixel value from DC information or low frequency information of a block image included in the encoded data as statistical information of the image information. Extract.

【0022】また、好ましくは、前記対象特徴抽出手段
は、前記画像情報の統計的情報として、前記符号化デー
タに含まれるブロック画像の直流情報あるいは低周波情
報から画素値の分散と平均値を抽出する。また、好まし
くは、前記補正手段は、前記対象画像に線形変換を施
す。また、好ましくは、前記補正手段は、前記対象画像
に区分的スプライン変換を施す。
Preferably, the target feature extracting means extracts, as statistical information of the image information, a variance and an average of pixel values from DC information or low frequency information of a block image included in the encoded data. I do. Preferably, the correction unit performs a linear transformation on the target image. Preferably, the correction unit performs a piecewise spline transformation on the target image.

【0023】また、好ましくは、前記補正手段は、前記
対象特徴抽出手段により抽出された対象特徴から有意性
のある色の偏りの有無を検出する検出手段と、前記検出
手段の検出結果から色の偏りを補正する色補正手段とを
備える。また、好ましくは、前記検出手段は、抽出され
た対象特徴に含まれる統計的情報より各色信号間におけ
る平均値の差分絶対値との分散の差分絶対値とがある閾
値以下であるという条件を満たすか否かを検出し、更
に、前記条件が満たされた場合においては、前記統計的
情報に基づくヒストグラムの特定領域において有意性の
ある色の偏りの有無を検出する。また、好ましくは、前
記色補正手段は、各色信号の最大値が等しくなるよう線
形に補正する。また、好ましくは、前記色補正手段は、
青色信号については補正を行わない。
Preferably, the correction means detects a presence or absence of a significant color bias from the target feature extracted by the target feature extraction means, and detects a color deviation based on a detection result of the detection means. Color correction means for correcting the bias. Preferably, the detecting means satisfies a condition that a difference absolute value of a variance from a difference absolute value of an average value between each color signal is equal to or less than a threshold value from statistical information included in the extracted target feature. And if the above condition is satisfied, the presence or absence of significant color bias in a specific area of the histogram based on the statistical information is detected. Preferably, the color correction means performs linear correction so that the maximum value of each color signal is equal. Also, preferably, the color correction means is:
No correction is performed for the blue signal.

【0024】また、好ましくは、前記補正手段は、前記
対象特徴抽出手段により抽出された対象特徴と前記背景
特徴抽出手段により抽出された背景特徴とから有意性の
あるコントラストの差異を検出する検出手段と、前記検
出手段の検出結果から、コントラストを補正するコント
ラスト補正手段とを備える。また、好ましくは、前記検
出手段は、前記対象特徴と前記背景特徴とから得られる
画素値の最大値と最小値をそれぞれ抽出し、前記コント
ラスト補正手段は、前記最大値あるいは前記最小値が異
なる対象画像と背景画像とにおいては、それぞれ画素値
の最大値の差分絶対値と画素値の最小値の差分絶対値と
が減少するように補正を行う。また、好ましくは、前記
検出手段は、前記対象特徴と前記背景特徴とから得られ
る画素値の最大値と最小値とをそれぞれ抽出し、前記コ
ントラスト補正手段は、前記最大値あるいは前記最小値
とがほぼ等しい対象画像と背景画像とにおいては、それ
ぞれ分散の差分絶対値が減少するように補正を行う。
Preferably, the correction means detects a significant difference in contrast between the target feature extracted by the target feature extraction means and the background feature extracted by the background feature extraction means. And a contrast correction means for correcting contrast based on the detection result of the detection means. Preferably, the detecting unit extracts a maximum value and a minimum value of a pixel value obtained from the target feature and the background feature, respectively, and the contrast correction unit determines an object having a different maximum value or the minimum value. In the image and the background image, the correction is performed so that the difference absolute value of the maximum pixel value and the difference absolute value of the minimum pixel value are reduced. Preferably, the detecting unit extracts a maximum value and a minimum value of a pixel value obtained from the target feature and the background feature, respectively, and the contrast correction unit determines whether the maximum value or the minimum value is The correction is performed so that the difference absolute value of the variance is reduced between the target image and the background image that are substantially equal.

【0025】上記の目的を達成するための本発明による
画像処理方法は以下の構成を備える。即ち、複数の画像
を合成する画像処理方法であって、少なくとも1つの背
景画像の符号化データから背景特徴を抽出する背景特徴
抽出工程と、少なくとも1つの対象画像の符号化データ
から画像情報の統計的情報を含む対象特徴を抽出する対
象特徴抽出工程と、前記背景画像の符号化データを復号
して背景再生画像を生成する背景復号工程と、前記対象
画像の符号化データを復号する対象再生画像を生成する
対象復号工程と、前記背景特徴と前記対象特徴に基づい
て、前記対象再生画像を補正する補正工程と、前記背景
再生画像と前記補正工程で補正された対象再生画像を合
成する合成工程とを備える。
An image processing method according to the present invention for achieving the above object has the following arrangement. That is, an image processing method for synthesizing a plurality of images, a background feature extracting step of extracting a background feature from encoded data of at least one background image, and a statistical process of image information from the encoded data of at least one target image. Feature extraction step of extracting a feature containing target information, a background decoding step of decoding encoded data of the background image to generate a background reproduction image, and a target reproduction image of decoding the encoded data of the target image , A correction step of correcting the target reproduction image based on the background feature and the target characteristic, and a synthesis step of synthesizing the background reproduction image and the target reproduction image corrected in the correction step. And

【0026】上記の目的を達成するための本発明による
コンピュータ可読メモリは以下の構成を備える。即ち、
複数の画像を合成する画像処理のプログラムコードが格
納されたコンピュータ可読メモリであって、少なくとも
1つの背景画像の符号化データから背景特徴を抽出する
背景特徴抽出工程のプログラムコードと、少なくとも1
つの対象画像の符号化データから画像情報の統計的情報
を含む対象特徴を抽出する対象特徴抽出工程のプログラ
ムコードと、前記背景画像の符号化データを復号して背
景再生画像を生成する背景復号工程のプログラムコード
と、前記対象画像の符号化データを復号する対象再生画
像を生成する対象復号工程のプログラムコードと、前記
背景特徴と前記対象特徴に基づいて、前記対象再生画像
を補正する補正工程のプログラムコードと、前記背景再
生画像と前記補正工程で補正された対象再生画像を合成
する合成工程のプログラムコードとを備える
A computer readable memory according to the present invention for achieving the above object has the following configuration. That is,
A computer readable memory storing a program code of an image processing for synthesizing a plurality of images, the program code of a background feature extracting step of extracting a background feature from encoded data of at least one background image;
Program code for a target feature extraction step of extracting a target feature including statistical information of image information from encoded data of two target images, and a background decoding step of decoding the encoded data of the background image to generate a background reproduced image A program code of a target decoding step of generating a target playback image for decoding encoded data of the target image, and a correction step of correcting the target playback image based on the background feature and the target feature. And a program code for a combining step of combining the background reproduced image and the target reproduced image corrected in the correction step.

【発明の実施の形態】以下、図面を参照して本発明の好
適な実施形態を詳細に説明する。 <実施形態1>図1は本発明の実施形態1の動画像送信
システムの構成を示すブロック図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the drawings. <First Embodiment> FIG. 1 is a block diagram showing the configuration of a moving image transmission system according to a first embodiment of the present invention.

【0027】実施形態1では、撮影環境の異なる複数の
場所で撮影された画像を符号化し伝送される符号化画
像、あらがじめデータベース等の記憶媒体に蓄積されて
いる符号化データを、データベースを管理するホストに
おいてそれぞれ復号して合成し、他の端末やネットワー
クへ送信する場合を例に挙げて説明する。
In the first embodiment, encoded images that are encoded and transmitted at a plurality of locations in different photographing environments and encoded data stored in a storage medium such as a pre-database are stored in a database. Will be described by taking as an example a case where a host that manages the information is decrypted and synthesized, and transmitted to another terminal or network.

【0028】図1において、101は青一色の背景(ブ
ルーバック)で動画像を撮影するTVカメラである。T
Vカメラ101は、動画像の入力手段であってTVカメ
ラや他の記憶媒体等の動画像入力手段であればどんなも
のでもよい。ここでは、図13の人1052を撮像して
いるものとする。102は動画像を撮影するTVカメラ
である。これも動画像入力手段であればよい。ここで
は、図20の背景画像1050ならびに人1051を撮
像しているものとする。103はブルーバックから対象
画像である人1052を抽出する対象抽出器である。1
05は抽出された対象画像を符号化する対象符号化部1
05である。ここでは、MPEG−4による符号化を行
うこととする。
In FIG. 1, reference numeral 101 denotes a TV camera for shooting a moving image with a blue background (blue background). T
The V camera 101 may be any moving image input means such as a TV camera or another storage medium as a moving image input means. Here, it is assumed that the person 1052 in FIG. 13 is imaged. A TV camera 102 captures a moving image. This may be any moving image input means. Here, it is assumed that the background image 1050 and the person 1051 in FIG. 20 are imaged. A target extractor 103 extracts a person 1052 as a target image from the blue background. 1
05 is a target encoding unit 1 for encoding the extracted target image
05. Here, it is assumed that encoding by MPEG-4 is performed.

【0029】104はTVカメラ102で撮像された動
画像を符号化する符号化器である。符号化方式は特に限
定されないが、ここでは、MPEG−1による符号化を
例に挙げる。106、107は符号化データを送信する
送信器である。108、109は通信回線である。11
0、111は符号化データを受信する受信器である。1
16はあらかじめ符号化された符号化データを記憶する
記憶装置である。112は本発明に係るところの動画像
編集装置である。113は動画像編集装置112による
編集結果を符号化する符号化器であり、ここでは、MP
EG−1による符号化を例に挙げて説明する。尚、符号
化器113で使用する符号化方式は、これに限定され
ず、MPEG−4やMPEG−2、h.263等の動画
像を符号化する符号化方式であればどんなものでもよ
い。114は符号化器113より得られる符号化データ
を送信する送信器である。115は公衆回線または放送
電波等の通信網である。
Reference numeral 104 denotes an encoder for encoding a moving image captured by the TV camera 102. Although the encoding method is not particularly limited, an example of encoding by MPEG-1 will be described here. Reference numerals 106 and 107 are transmitters for transmitting encoded data. 108 and 109 are communication lines. 11
Numerals 0 and 111 are receivers for receiving encoded data. 1
Reference numeral 16 denotes a storage device that stores encoded data that has been encoded in advance. Reference numeral 112 denotes a moving image editing apparatus according to the present invention. Reference numeral 113 denotes an encoder for encoding the result of editing performed by the moving image editing apparatus 112, and here, MP
A description will be given by taking coding by EG-1 as an example. Note that the encoding method used by the encoder 113 is not limited to this, but may be MPEG-4, MPEG-2, h. 263, etc., as long as it is a coding method for coding moving images. Reference numeral 114 denotes a transmitter for transmitting the encoded data obtained from the encoder 113. Reference numeral 115 denotes a communication network such as a public line or a broadcast wave.

【0030】このような構成において、TVカメラ10
1はブルーバックを背景にして撮像対象である人105
2を撮像する。対象抽出器103は入力された動画像か
ら対象画像である人1052を抽出する。その様子を図
2〜図4に表す。
In such a configuration, the TV camera 10
1 is a person 105 to be imaged against a blue background
2 is imaged. The target extractor 103 extracts a person 1052, which is a target image, from the input moving image. This is shown in FIGS.

【0031】図2は撮像対象である人1052を、矩形
領域1200で切り出す。続いて、ブルーバック部分を
抽出して、図3に示すようなマスク情報1201を生成
する領域1200の画像データと、マスク情報1201
を対象符号化部105に入力する。図4は、対象符号化
部105による処理によって得られる画像を示してお
り、その詳細については後述する。
FIG. 2 cuts out a person 1052 to be imaged in a rectangular area 1200. Subsequently, the image data of an area 1200 for extracting the blue back portion and generating the mask information 1201 as shown in FIG.
Is input to the target encoding unit 105. FIG. 4 shows an image obtained by the processing by the target encoding unit 105, the details of which will be described later.

【0032】記憶装置116は、例えば、CD−ROM
や磁気ディスクやテープ記憶装置等で構成されており、
特定の符号化方式に限定されず記憶できる。ここでは、
特に、MPEG−4で符号化したシーケンスで構成され
る符号化データを格納する記憶装置であるとし、例え
ば、図22に示すようなあらかじめ抽出された人105
3を記憶しているものとする。
The storage device 116 is, for example, a CD-ROM
And magnetic disk and tape storage devices, etc.
The data can be stored without being limited to a specific coding method. here,
In particular, it is assumed that the storage device is a storage device that stores encoded data composed of a sequence encoded by MPEG-4.
3 is stored.

【0033】次に、実施形態1の対象符号化部105の
詳細構成について、図5を用いて説明する。
Next, a detailed configuration of the target encoding unit 105 according to the first embodiment will be described with reference to FIG.

【0034】図5は本発明の実施形態1の対象符号化部
の詳細構成を示すブロック図である。
FIG. 5 is a block diagram showing a detailed configuration of the target encoding unit according to the first embodiment of the present invention.

【0035】121、122は端子であり、図1の対象
抽出器103から端子122は符号化する対象画像の領
域1200の画像データを、端子121はマスク情報1
201を入力する。123はマスク情報1201を格納
するマスクメモリである。124はマスク情報1201
を符号化するマスク符号化器である。125は領域12
00の画像データを格納する対象メモリである。126
は対象画像の画素値の平均値を求める平均値算出器であ
る。127は対象画像を符号化単位のブロックに分割す
るブロック形成器である。128はフレームの符号化モ
ードを予め決めた周期にしたがって、I、P、Bのフレ
ームモードを適宜選択するフレームモード設定器であ
る。
Reference numerals 121 and 122 denote terminals. The terminal extractor 103 shown in FIG. 1 outputs terminal image data of a region 1200 of the target image to be encoded.
Enter 201. Reference numeral 123 denotes a mask memory for storing mask information 1201. 124 is mask information 1201
Is a mask encoder for encoding. 125 is the area 12
00 is a target memory for storing image data of 00. 126
Is an average value calculator for calculating the average value of the pixel values of the target image. A block forming unit 127 divides the target image into blocks in units of coding. Reference numeral 128 denotes a frame mode setting unit that appropriately selects an I, P, or B frame mode according to a predetermined cycle of a frame encoding mode.

【0036】129は差分器である。130はDCT
(Discrete Cosine Transform:離散コサイン変換)変
換を行うDCT変換器である。131はDCT変換器1
30の出力を量子化する量子化器である。132は符号
器であり、量子化結果を1次元に整列し、0ラン長と値
に対して符号を割り当て、符号化する。133はマスク
符号器124と符号器132で生成された符号化データ
を合成する。134は端子であり、生成された符号化デ
ータを最終的に出力する。135は逆量子化を行う逆量
子化器である。136は逆DCT変換を行う逆DCT変
換器である。137は加算器であり、138、139は
再生された画像データを格納する対象メモリである。1
40はブロック形成器127からの入力と対象メモリ1
38、139の内容から動き補償を行う動き補償器であ
る。
Reference numeral 129 denotes a differentiator. 130 is DCT
(Discrete Cosine Transform) This is a DCT transformer for performing a transform. 131 is a DCT converter 1
30 is a quantizer which quantizes the output of 30. Reference numeral 132 denotes an encoder that arranges the quantization results one-dimensionally, assigns a code to the 0 run length and the value, and performs encoding. 133 synthesizes the encoded data generated by the mask encoder 124 and the encoder 132. Reference numeral 134 denotes a terminal, which finally outputs the generated encoded data. 135 is an inverse quantizer for performing inverse quantization. 136 is an inverse DCT converter that performs an inverse DCT transform. 137 is an adder, 138 and 139 are target memories for storing reproduced image data. 1
40 is an input from the block former 127 and the target memory 1
This is a motion compensator that performs motion compensation based on the contents of 38 and 139.

【0037】上記の構成において、符号化開始に際して
各メモリのクリアを行い、各構成要素の初期化を行う。
フレームモード設定器128は、最初のフレームの符号
化時はI−フレームを指示する。この時、動き補償器1
40は動作せず、動き補償予測値として0を出力する。
領域1200の画像データを端子122から、マスク情
報1201を端子121から同期して読み込み、それぞ
れ対象メモリ125とマスクメモリ123に格納する。
In the above configuration, each memory is cleared at the start of encoding, and each component is initialized.
The frame mode setting unit 128 indicates an I-frame when encoding the first frame. At this time, the motion compensator 1
40 does not operate and outputs 0 as the motion compensation prediction value.
The image data of the area 1200 is read from the terminal 122 in synchronization with the mask information 1201 from the terminal 121, and stored in the target memory 125 and the mask memory 123, respectively.

【0038】1フレーム分が格納されたら、マスク符号
器124はマスク情報1201を符号化し、合成器13
3に出力する。平均値算出器127はマスク情報120
1に従って入力された画素が背景か対象画像かを判断し
て、対象画像である人1052の平均値mを算出する。
ブロック形成器127は領域1200の画像データとマ
スク情報1201を同期してブロック単位に読み込み、
入力された画素のマスク情報1201が背景画素を表し
ていれば平均値mに置換し、そうでなければ入力された
画素値をそのまま出力して8×8のブロックを形成す
る。即ち、画像全体では、図4に示すように、背景部分
は平均値mに置き換えられる。動き補償予測値は0なの
で、差分器129は入力をそのまま出力する。この出力
は、DCT変換器130でDCT変換され、その係数は
量子化器131で量子化される。量子化結果は符号器1
32で符号を割り当てられ、合成器133に出力され
る。合成器133はマスク符号器124と符号器132
で生成された符号化データに必要なヘッダの付加やデー
タの整列を行い、端子134から出力する。また、量子
化結果は逆量子化器135で逆量子化され、逆DCT変
換器136で再生画素値を得て、加算器137を介して
対象メモリ138または139のいずれかに格納する。
When one frame is stored, the mask encoder 124 encodes the mask information 1201 and
Output to 3. The average value calculator 127 outputs the mask information 120
It is determined according to 1 whether the input pixel is the background or the target image, and the average value m of the person 1052 as the target image is calculated.
The block forming unit 127 reads the image data of the area 1200 and the mask information 1201 in synchronization with each other on a block basis.
If the mask information 1201 of the input pixel indicates a background pixel, the pixel value is replaced with the average value m. Otherwise, the input pixel value is output as it is to form an 8 × 8 block. That is, in the entire image, the background portion is replaced with the average value m as shown in FIG. Since the motion compensation prediction value is 0, the differentiator 129 outputs the input as it is. This output is DCT-transformed by the DCT transformer 130, and its coefficient is quantized by the quantizer 131. The quantization result is the encoder 1
A code is assigned at 32 and output to the combiner 133. The combiner 133 includes a mask encoder 124 and an encoder 132
A header necessary for the encoded data generated in step (1) is added and the data is aligned, and output from the terminal 134. Further, the quantization result is inversely quantized by the inverse quantizer 135, a reproduction pixel value is obtained by the inverse DCT transformer 136, and stored in the target memory 138 or 139 via the adder 137.

【0039】また、フレームモード設定器128がP−
フレームまたはB−フレームを指示していたら、動き補
償器140を動作させ、対象メモリ138、139から
動き補償に必要な画像データを適宜読み出し、動き補償
を行うか否かを判定する。動き補償を行う場合は、その
動き補償予測値を差分器129、加算器137に出力
し、動き補償に用いる動きベクトルを符号器132に入
力する。動き補償を行わない場合は動き補償予測値を0
とする。
Further, the frame mode setting unit 128 sets the P-
If a frame or B-frame has been designated, the motion compensator 140 is operated, image data necessary for motion compensation is read from the target memories 138 and 139, and it is determined whether or not to perform motion compensation. When performing motion compensation, the motion compensation prediction value is output to a differentiator 129 and an adder 137, and a motion vector used for motion compensation is input to an encoder 132. When motion compensation is not performed, the motion compensation prediction value is set to 0.
And

【0040】このようにして、対象符号化部105で符
号化して得られた符号化データは送信器106を介して
通信回線108に出力される。
The encoded data obtained by the encoding by the target encoding unit 105 is output to the communication line 108 via the transmitter 106.

【0041】一方、TVカメラ102で撮像された画像
は符号化器104で、図19に示した動画像符号化装置
1002と同様の構成でMPEG−1の符号化を行い、
送信器107を介して通信回線109に出力される。
On the other hand, the image picked up by the TV camera 102 is coded by an encoder 104 into MPEG-1 with the same configuration as that of the moving picture coding apparatus 1002 shown in FIG.
Output to the communication line 109 via the transmitter 107.

【0042】受信器110、111は通信回線108、
109を介して符号化データを受信し、動画像編集装置
112に送信する。また、記憶装置116はMPEG−
4で符号化した符号化シーケンスを読み出し、動画像編
集装置112に符号化データを送信する。
The receivers 110 and 111 are connected to the communication line 108,
The coded data is received via the control unit 109 and transmitted to the moving image editing apparatus 112. Further, the storage device 116 stores the MPEG-
The encoded sequence read in step 4 is read, and the encoded data is transmitted to the moving image editing apparatus 112.

【0043】次に、実施形態1の動画像編集装置112
の詳細構成について、図6を用いて説明する。
Next, the moving image editing apparatus 112 according to the first embodiment
The detailed configuration will be described with reference to FIG.

【0044】図6は本発明の実施形態1の動画像編集装
置の詳細構成を示すブロック図である。
FIG. 6 is a block diagram showing a detailed configuration of the moving picture editing apparatus according to the first embodiment of the present invention.

【0045】200、201、202は端子であり、端
子200は受信器110から、端子201は受信器11
1から、端子202は記憶装置116からの符号化デー
タが入力される。これらの符号化データは、対象復号器
203、204および復号器205のそれぞれの端子2
19、220、221に入力される。端子206、20
9、225からはRGB形式による画像データが出力さ
れる。端子208、211、212からは色かぶり補正
値を算出するために必要な色かぶり補正用画像情報22
2、223、224が出力される。端子207、210
からはマスク情報がそれぞれ出力される。213は色か
ぶり補正用画像情報から補正値を算出する補正値算出器
である。
Reference numerals 200, 201, and 202 denote terminals. The terminal 200 is connected to the receiver 110, and the terminal 201 is connected to the receiver 11
From 1, encoded data from the storage device 116 is input to the terminal 202. These encoded data are supplied to respective terminals 2 of the target decoders 203 and 204 and the decoder 205.
19, 220 and 221. Terminals 206, 20
9, 225 output image data in RGB format. From the terminals 208, 211, and 212, color fog correction image information 22 necessary for calculating a color fog correction value.
2, 223 and 224 are output. Terminals 207, 210
Output mask information. A correction value calculator 213 calculates a correction value from the color cast correction image information.

【0046】214、215、216は補正値から画像
データの色かぶりを補正する補正器である。217は画
像データとマスク情報とから画像データの合成を行う画
像合成器である。218は端子であり、合成されたRG
B形式の画像データを符号化器113に出力する。
Reference numerals 214, 215 and 216 denote correctors for correcting the color cast of the image data from the correction values. An image synthesizer 217 synthesizes image data from the image data and the mask information. 218 is a terminal, which is a synthesized RG
The image data in the B format is output to the encoder 113.

【0047】次に、実施形態1の対象復号器203、2
04の詳細構成について、図7を用いて説明する。尚、
図7では、対象復号器203の詳細構成として説明し、
同様の構成を有する対象復号器204の詳細構成につい
ては、ここでは省略する。
Next, the target decoders 203, 2
The detailed configuration of No. 04 will be described with reference to FIG. still,
In FIG. 7, a detailed configuration of the target decoder 203 will be described.
The detailed configuration of the target decoder 204 having the same configuration is omitted here.

【0048】図7は本発明の実施形態1の対象復号器の
詳細構成を示すブロック図である。219は端子であ
り、受信器110からの符号化データが入力される。2
41は分離器であり、入力された符号化データからマス
ク情報の符号化データと対象画像の領域の符号化データ
を分離する。242はマスク情報を復号するマスク復号
器である。243はマスク情報を格納するマスクメモリ
である。マスクメモリ243内のマスク情報は、端子2
07より出力される。244は対象画像の領域の符号化
データを格納する符号メモリである。245は対象画像
の領域の符号化データを復号する復号器である。24
6、248はデマルチプレクサである。248、25
5、262は逆量子化器である。249、256、26
3は逆DCT変換器である。
FIG. 7 is a block diagram showing a detailed configuration of the target decoder according to the first embodiment of the present invention. Reference numeral 219 denotes a terminal to which encoded data from the receiver 110 is input. 2
Reference numeral 41 denotes a separator, which separates the encoded data of the mask information and the encoded data of the area of the target image from the input encoded data. Reference numeral 242 denotes a mask decoder that decodes mask information. A mask memory 243 stores mask information. The mask information in the mask memory 243 is
07. Reference numeral 244 denotes a code memory for storing the encoded data of the area of the target image. A decoder 245 decodes the encoded data of the area of the target image. 24
6, 248 are demultiplexers. 248, 25
5, 262 are inverse quantizers. 249, 256, 26
3 is an inverse DCT converter.

【0049】250、257、264は加算器である。
251、252、253は再生した対象画像の領域の輝
度Yデータを格納する対象メモリである。258、25
9、260は再生した対象画像の領域の色差Cbデータ
を格納する対象メモリである。265、266、267
は再生した対象画像の領域の色差Crデータを格納する
対象メモリである。254、261、268は動き補償
器である。269、273はYCbCr形式の画像デー
タからRGB形式の画像データへの色信号変換を行う色
信号変換器である。270、271、272はバッファ
である。206は端子であり、RGB形式の画像データ
が出力される。207は端子であり、マスク情報が出力
される。208は端子であり、色かぶり補正用画像情報
が出力される。
Reference numerals 250, 257, and 264 denote adders.
Reference numerals 251, 252 and 253 are target memories for storing luminance Y data of the reproduced target image area. 258, 25
Reference numerals 9 and 260 are target memories for storing the color difference Cb data of the reproduced target image area. 265, 266, 267
Is a target memory for storing the color difference Cr data of the area of the reproduced target image. 254, 261, and 268 are motion compensators. Reference numerals 269 and 273 denote color signal converters for performing color signal conversion from YCbCr format image data to RGB format image data. 270, 271, and 272 are buffers. Reference numeral 206 denotes a terminal from which image data in RGB format is output. A terminal 207 outputs mask information. Reference numeral 208 denotes a terminal from which color fog correction image information is output.

【0050】上記構成において、入力された符号化デー
タからマスク情報の符号化データと対象画像の領域の符
号化データを分離器214で分離し、それぞれマスク復
号器242と符号メモリ244に入力する。マスク復号
器242はマスク情報の符号化データを復号してマスク
情報を再生し、マスクメモリ243に格納する。符号メ
モリ244に格納された符号化データは復号器245で
復号され、量子化された値が再生された後、デマルチプ
レクサ247で輝度Yデータ、色差Cbデータ、色差C
rデータにデマルチプレクスされる。輝度Yデータは逆
量子化器248に、色差Cbデータは逆量子化器255
に、色差Crデータは逆量子化器262に入力される。
In the above configuration, the coded data of the mask information and the coded data of the target image area are separated by the separator 214 from the input coded data, and are input to the mask decoder 242 and the code memory 244, respectively. The mask decoder 242 decodes the encoded data of the mask information to reproduce the mask information, and stores the reproduced mask information in the mask memory 243. The encoded data stored in the code memory 244 is decoded by the decoder 245, and the quantized value is reproduced. After that, the demultiplexer 247 decodes the luminance Y data, the chrominance Cb data, and the chrominance Cb.
Demultiplexed into r data. The luminance Y data is supplied to the inverse quantizer 248, and the chrominance Cb data is supplied to the inverse quantizer 255.
In addition, the chrominance Cr data is input to the inverse quantizer 262.

【0051】輝度Yデータは逆量子化器248で逆量子
化され、逆DCT変換器249で逆DCT変換される。
I−フレームの時は動き補償器254は動作せず、0を
出力する。P−フレームとB−フレームの時は動き補償
器254は動作し、動き補償予測値を出力する。加算器
250は逆DCT変換器249の出力と動き補償器25
4の出力を加算し、対象メモリ251および対象メモリ
252または253に格納する。一方、I−フレムの時
のみに限り、逆量子化器248からの出力のうち輝度Y
データの平均値を表す直流成分情報のみが、バッファ2
72に格納される。
The luminance Y data is inversely quantized by an inverse quantizer 248 and inverse DCT transformed by an inverse DCT transformer 249.
In the case of an I-frame, the motion compensator 254 does not operate and outputs 0. At the time of a P-frame and a B-frame, the motion compensator 254 operates and outputs a motion compensation prediction value. The adder 250 outputs the output of the inverse DCT transformer 249 and the motion compensator 25.
4 are added and stored in the target memory 251 and the target memory 252 or 253. On the other hand, only during the I-frame, the luminance Y out of the output from the inverse quantizer 248
Only the DC component information representing the average value of the data is stored in the buffer 2
72.

【0052】色差Cbデータは逆量子化器255で逆量
子化され、逆DCT変換器256で逆DCT変換され
る。I−フレームの時は動き補償器261は動作せず、
0を出力する。P−フレームとB−フレームの時は動き
補償器261は動作し、動き補償予測値を出力する。加
算器257は逆DCT変換器256の出力と動き補償器
261の出力を加算し、対象メモリ258および対象メ
モリ259または260に格納する。一方、I−フレー
ムの時のみに限り、逆量子化器255からの出力のうち
色差Cbデータの平均値を表す直流成分情報のみが、バ
ッファ271に格納される。
The chrominance Cb data is inversely quantized by the inverse quantizer 255 and inverse DCT-transformed by the inverse DCT converter 256. In the case of an I-frame, the motion compensator 261 does not operate,
Outputs 0. At the time of a P-frame and a B-frame, the motion compensator 261 operates and outputs a motion compensation prediction value. The adder 257 adds the output of the inverse DCT transformer 256 and the output of the motion compensator 261 and stores the result in the target memory 258 and the target memory 259 or 260. On the other hand, only in the case of an I-frame, only the DC component information representing the average value of the color difference Cb data among the outputs from the inverse quantizer 255 is stored in the buffer 271.

【0053】色差Crデータは逆量子化器262で逆量
子化され、逆DCT変換器263で逆DCT変換され
る。I−フレームの時は動き補償器268は動作せず、
0を出力する。P−フレームとB−フレームの時は動き
補償器268は動作し、動き補償予測値を出力する。加
算器264は逆DCT変換器263の出力と動き補償器
268の出力を加算し、対象メモリ265および対象メ
モリ266または267に格納する。一方、I−フレー
ムの時のみに限り、逆量子化器262からの出力のうち
色差Crデータの平均値を表す直流成分情報のみが、バ
ッファ270に格納される。
The chrominance Cr data is inversely quantized by the inverse quantizer 262 and inverse DCT transformed by the inverse DCT transformer 263. In the case of an I-frame, the motion compensator 268 does not operate,
Outputs 0. At the time of a P-frame and a B-frame, the motion compensator 268 operates and outputs a motion compensation prediction value. The adder 264 adds the output of the inverse DCT transformer 263 and the output of the motion compensator 268, and stores the sum in the target memory 265 and the target memory 266 or 267. On the other hand, only in the case of the I-frame, only the DC component information representing the average value of the color difference Cr data among the outputs from the inverse quantizer 262 is stored in the buffer 270.

【0054】マクロブロックの処理が終了した時、バッ
ファ270、271、272より輝度Y直流成分情報、
色差Cb直流成分情報、色差Cr直流成分情報が読み出
され、色信号変換器273でRGB形式に変換された上
で、色かぶり補正用画像情報として端子208から出力
される。
When the processing of the macro block is completed, the luminance Y DC component information from the buffers 270, 271, 272,
The color difference Cb DC component information and the color difference Cr DC component information are read out, converted into RGB format by the color signal converter 273, and output from the terminal 208 as color cast correction image information.

【0055】また、対象メモリ251、258、265
よりYCbCr形式の画像データが読み出される際に
は、色信号変換器269でRGB形式の画像データに変
換された上で端子206より出力される。
The target memories 251, 258, 265
When the image data in the YCbCr format is read, the image data is converted into image data in the RGB format by the color signal converter 269 and then output from the terminal 206.

【0056】次に、実施形態1の復号器205の詳細構
成について、図8を用いて説明する。
Next, the detailed configuration of the decoder 205 according to the first embodiment will be described with reference to FIG.

【0057】図8は本発明の実施形態1の復号器の詳細
構成を示すブロック図である。
FIG. 8 is a block diagram showing a detailed configuration of the decoder according to the first embodiment of the present invention.

【0058】221は端子であり、記憶装置116から
の符号化データが入力される。301は符号化データを
格納する符号メモリである。302は符号化データを復
号する復号器である。303、304はデマルチプレク
サである。305、312、319は逆量子化器であ
る。306、313、320は逆DCT変換器である。
307、314、321は加算器である。308、30
9、310は符号化データを復号して得られた画像の輝
度Yデータを格納するメモリである。315、316、
317は符号化データを復号して得られた画像の色差C
bデータを格納するメモリである。322、323、3
24は符号化データを復号して得られた画像の色差Cr
データを格納するメモリである。311、318、32
5は動き補償器である。326、330はYCbCr形
式の画像データからRGB形式の画像データへ色信号変
換を行う色信号変換器である。327、328、329
はバッファである。225は端子であり、RGB形式の
画像データが出力される。212は端子であり、色かぶ
り補正用画像情報が出力される。
Reference numeral 221 denotes a terminal to which encoded data from the storage device 116 is input. Reference numeral 301 denotes a code memory for storing encoded data. Reference numeral 302 denotes a decoder that decodes encoded data. 303 and 304 are demultiplexers. 305, 312 and 319 are inverse quantizers. 306, 313, and 320 are inverse DCT converters.
307, 314 and 321 are adders. 308, 30
Reference numerals 9 and 310 are memories for storing luminance Y data of an image obtained by decoding encoded data. 315, 316,
317 is a color difference C of an image obtained by decoding the encoded data.
b is a memory for storing data. 322, 323, 3
24 is the color difference Cr of the image obtained by decoding the encoded data.
This is a memory for storing data. 311, 318, 32
5 is a motion compensator. 326 and 330 are color signal converters for performing color signal conversion from YCbCr format image data to RGB format image data. 327, 328, 329
Is a buffer. Reference numeral 225 denotes a terminal from which image data in RGB format is output. Reference numeral 212 denotes a terminal from which color cast image information is output.

【0059】上記構成において、符号メモリ301に格
納された符号化データは、復号器262で復号された
後、デマルチプレクサ303で、輝度Yデータ、色差C
bデータ、色差Crデータにデマルチプレクスされる。
輝度Yデータは逆量子化器305に、色差Cbデータは
逆量子化器312に、色差Crデータは逆量子化器31
9に入力される。
In the above configuration, the coded data stored in the code memory 301 is decoded by the decoder 262 and then decoded by the demultiplexer 303 to obtain the luminance Y data and the color difference C.
The data is demultiplexed into b data and color difference Cr data.
The luminance Y data is supplied to the inverse quantizer 305, the color difference Cb data is supplied to the inverse quantizer 312, and the color difference Cr data is supplied to the inverse quantizer 31.
9 is input.

【0060】輝度Yデータは逆量子化器305で逆量子
化され、逆DCT変換器306で逆DCT変換される。
I−フレームの時は動き補償器311は動作せず、0を
出力する。P−フレームとB−フレームの時は動き補償
器311は動作し、動き補償予測値を出力する。加算器
307は逆DCT変換器306の出力と動き補償器31
1の出力を加算し、メモリ308およびメモリ309ま
たは310に格納する。一方、I−フレームの時のみに
限り、逆量子化器305からの出力のうち輝度Yデータ
の平均値を表す直流成分情報のみが、バッファ329に
格納される。
The luminance Y data is inversely quantized by the inverse quantizer 305 and inverse DCT transformed by the inverse DCT transformer 306.
In the case of an I-frame, the motion compensator 311 does not operate and outputs 0. At the time of a P-frame and a B-frame, the motion compensator 311 operates and outputs a motion compensation prediction value. The adder 307 outputs the output of the inverse DCT converter 306 and the motion compensator 31
One output is added and stored in the memory 308 and the memory 309 or 310. On the other hand, only in the case of the I-frame, only the DC component information representing the average value of the luminance Y data among the outputs from the inverse quantizer 305 is stored in the buffer 329.

【0061】色差Cbデータは逆量子化器312で逆量
子化され、逆DCT変換器313で逆DCT変換され
る。I−フレームの時は動き補償器318は動作せず、
0を出力する。P−フレームとB−フレームの時は動き
補償器318は動作し、動き補償予測値を出力する。加
算器314は逆DCT変換器313の出力と動き補償器
318の出力を加算し、メモリ315およびメモリ31
6または317に格納する。一方、I−フレームの時の
みに限り、逆量子化器312からの出力のうち色差Cb
データの平均値を表す直流成分情報のみが、バッファ3
28に格納される。
The chrominance Cb data is inversely quantized by the inverse quantizer 312 and inverse DCT transformed by the inverse DCT transformer 313. In the case of an I-frame, the motion compensator 318 does not operate,
Outputs 0. At the time of a P-frame and a B-frame, the motion compensator 318 operates and outputs a motion compensation prediction value. The adder 314 adds the output of the inverse DCT transformer 313 and the output of the motion compensator 318, and
6 or 317. On the other hand, the color difference Cb of the output from the inverse quantizer 312 is limited only to the I-frame.
Only the DC component information representing the average value of the data is stored in the buffer 3
28.

【0062】色差Crデータは逆量子化器319で逆量
子化され、逆DCT変換器320で逆DCT変換され
る。I−フレームの時は動き補償器325は動作せず、
0を出力する。P−フレームとB−フレームの時は動き
補償器325は動作し、動き補償予測値を出力する。加
算器321は逆DCT変換器320の出力と動き補償器
325の出力を加算し、メモリ322およびメモリ32
3または324に格納する。一方、I−フレームの時の
みに限り、逆量子化器319からの出力のうち色差Cr
データの平均値を表す直流成分情報のみが、バッファ3
27に格納される。
The chrominance Cr data is inversely quantized by the inverse quantizer 319 and inverse DCT transformed by the inverse DCT transformer 320. In the case of an I-frame, the motion compensator 325 does not operate,
Outputs 0. At the time of a P-frame and a B-frame, the motion compensator 325 operates and outputs a motion compensation prediction value. The adder 321 adds the output of the inverse DCT converter 320 and the output of the motion compensator 325, and
3 or 324. On the other hand, only during the I-frame, the chrominance Cr
Only the DC component information representing the average value of the data is stored in the buffer 3
27.

【0063】マクロブロックの処理が終了した時、バッ
ファ327、328、329より輝度Y直流成分情報、
色差Cb直流成分情報、色差Cr直流成分情報が読み出
され、色信号変換器330でRGB形式に変換された上
で、色かぶり補正用画像情報として端子212から出力
される。
When the processing of the macro block is completed, the luminance Y DC component information from the buffers 327, 328, and 329,
The chrominance Cb DC component information and the chrominance Cr DC component information are read out, converted into the RGB format by the color signal converter 330, and output from the terminal 212 as color cast image information.

【0064】また、メモリ308、315、322より
YCbCr形式の画像データが読み出される際には、色
信号変換器326でRGB形式の画像データに変換され
た上で端子224より出力される以上説明した動画像編
集装置112の構成において、1フレーム分の復号が終
了し、対象復号器203内の対象メモリ251、25
8、265と、対象復号器204内の対象メモリ25
1、258、265と、符号器205内のメモリ30
8、315、322に画像データが格納されたら、補正
値算出器213は、色かぶり補正用画像情報を用いて後
述の補正式算出アルゴリズムから、以下の補正式を求め
る。つまり、補正器214用R画素値補正式f1R(x)、
補正器214用G画素値補正式f1G(x)、補正器214
用B画素値補正式f1B(x)と、補正器215用R画素値
補正式f2R(x)、補正器215用G画素値補正式f2G
(x)、補正器215用B画素値補正式f2B(x)と、補正
器216用R画素値補正式f3R(x)、補正器216用G
画素値補正式f3G(x)、補正器216用B画素値補正式
f3B(x)とを求める。
When image data in the YCbCr format is read from the memories 308, 315, and 322, the image data is converted into image data in the RGB format by the color signal converter 326 and output from the terminal 224. In the configuration of the video editing device 112, decoding of one frame is completed, and the target memories 251 and 25 in the target decoder 203 are finished.
8, 265 and the target memory 25 in the target decoder 204
1, 258, 265 and the memory 30 in the encoder 205.
When the image data is stored in 8, 315, and 322, the correction value calculator 213 obtains the following correction formula from the correction formula calculation algorithm described later using the color cast correction image information. That is, the R pixel value correction formula f1R (x) for the corrector 214,
G pixel value correction formula f1G (x) for corrector 214, corrector 214
B pixel value correction formula f1B (x), R pixel value correction formula f2R (x) for corrector 215, G pixel value correction formula f2G for corrector 215
(x), B pixel value correction formula f2B (x) for corrector 215, R pixel value correction formula f3R (x) for corrector 216, G for corrector 216
A pixel value correction formula f3G (x) and a B pixel value correction formula f3B (x) for the corrector 216 are obtained.

【0065】その後、復号器205から走査線の画素順
にラスタスキャンにてRGB画素値を読み出し、補正器
216で補正を行い、画像合成器217に入力する。補
正器216では入力されたR画素値r、G画素値g、B
画素値bに対して補正式f3R(x)、f3G(x)、f3B(x)
による補正を次式にしたがって行い、補正されたR画素
値R、G画素値G、B画素値Bを求め、出力する。
Thereafter, RGB pixel values are read from the decoder 205 by raster scan in the order of the pixels of the scanning line, corrected by the corrector 216, and input to the image synthesizer 217. In the corrector 216, the input R pixel value r, G pixel value g, B
Correction formulas f3R (x), f3G (x), f3B (x) for pixel value b
Is performed according to the following equation to obtain and output corrected R pixel values R, G pixel values G, and B pixel values B.

【0066】 R=f3R(r),G=f3G(g),B=f3b(b) …(1) 一方、スキャン位置が対象復号器203の対象画像デー
タを合成する位置に到達したら、対象復号器203から
マスク情報とRGB画素値を読み出し、補正器214で
補正を行い、画像合成器217に入力する。補正器21
4では、入力されたR画素値r、G画素値g、B画素値
bに対して補正式f1R(x)、f1G(x)、f1B(x)による
補正を次式にしたがって行い、補正されたR画素値R、
G画素値G、B画素値Bを求め、出力する。
R = f3R (r), G = f3G (g), B = f3b (b) (1) On the other hand, when the scan position reaches the position where the target image data of the target decoder 203 is synthesized, the target decoding is performed. The mask information and the RGB pixel values are read from the device 203, corrected by the corrector 214, and input to the image synthesizer 217. Corrector 21
In step 4, the input R pixel value r, G pixel value g, and B pixel value b are corrected by the correction formulas f1R (x), f1G (x), and f1B (x) according to the following equations. R pixel value R,
A G pixel value G and a B pixel value B are obtained and output.

【0067】 R=f1R(r),G=f1G(g),B=f1b(b) …(2) また、スキャン位置が対象復号器204の対象画像デー
タを合成する位置に到達したら、対象復号器204から
マスク情報とRGB画素値を読み出し、補正器215で
補正を行い、画像合成器217に入力する。補正器21
5では、入力されたR画素値r、G画素値g、B画素値
bに対して補正式f2R(x)、f2G(x)、f2B(x)による
補正を次式にしたがって行い、補正されたR画素値R、
G画素値G、B画素値Bを求め、出力する。
R = f1R (r), G = f1G (g), B = f1b (b) (2) When the scan position reaches the position where the target image data of the target decoder 204 is synthesized, the target decoding is performed. The mask information and the RGB pixel values are read from the device 204, corrected by the corrector 215, and input to the image synthesizer 217. Corrector 21
In 5, the input R pixel value r, G pixel value g, and B pixel value b are corrected by the correction formulas f2R (x), f2G (x), and f2B (x) according to the following formulas. R pixel value R,
A G pixel value G and a B pixel value B are obtained and output.

【0068】 R=f2R(r),G=f2G(g),B=f2b(b) …(3) 画像合成器217は、マスク情報が対象復号器203の
対象画像データを示している場合は補正器214からの
画素値を、マスク情報が対象復号器204の対象画像デ
ータを示している場合は補正器215からの画素値を、
これらのいずれにもあたらない場合は補正器216から
の画素値を出力することで、画像の合成を行い、端子2
18から符号化器113に出力する。図9に、背景10
50と人1051とを補正して得られた画像である背景
1160と人1061と、人1052を補正して得られ
た画像である人1062と、人1053を補正して得ら
れた画像である人1063とを合成した様子を示す。符
号化器113は出力された画像をMPEG−1で符号化
し、送信器114を介して通信網115に送出される。
R = f2R (r), G = f2G (g), B = f2b (b) (3) The image synthesizer 217 determines whether the mask information indicates the target image data of the target decoder 203. The pixel value from the corrector 214, and the pixel value from the corrector 215 when the mask information indicates the target image data of the target decoder 204,
If none of the above cases is satisfied, the image is synthesized by outputting the pixel value from the corrector 216 and the terminal 2
18 to the encoder 113. FIG. 9 shows the background 10
A background 1160 and a person 1061, which are images obtained by correcting 50 and the person 1051, a person 1062 which is an image obtained by correcting the person 1052, and an image obtained by correcting the person 1053. This shows a state in which a person 1063 is combined. The encoder 113 encodes the output image using MPEG-1, and sends the image to the communication network 115 via the transmitter 114.

【0069】上記動作において、補正値算出器213の
補正式算出アルゴリズムは下記に従って動作する。
In the above operation, the correction formula calculating algorithm of the correction value calculator 213 operates according to the following.

【0070】補正器216用補正式f3R(r),f3G
(g),f3b(b)は以下のように算出する。
Correction formulas f3R (r), f3G for corrector 216
(g) and f3b (b) are calculated as follows.

【0071】人間の目は青色に対しては比較的鈍く、補
正効果がさほど現れない。そこで、B画素値を補正する
f3b(b)については、 f3B(b)=b …(4) とする。
The human eye is relatively dull to blue, and the correction effect does not appear so much. Therefore, f3b (b) for correcting the B pixel value is given by f3B (b) = b (4).

【0072】次に、復号器205からの色かぶり補正用
画像情報224におけるR情報の最大値RMax1、平
均値RE1、分散RR1を求める。
Next, the maximum value RMax1, the average value RE1, and the variance RR1 of the R information in the color fog correction image information 224 from the decoder 205 are obtained.

【0073】次に、復号器205からの色かぶり補正用
画像情報224におけるG情報の最大値GMax1、平
均値GE1、分散GR1を求める。
Next, the maximum value GMax1, the average value GE1, and the variance GR1 of the G information in the color fog correction image information 224 from the decoder 205 are obtained.

【0074】そして、R情報の値とG情報の値との分布
を示す2次元ヒストグラムを算出する。
Then, a two-dimensional histogram showing the distribution of the value of the R information and the value of the G information is calculated.

【0075】|RE1−GE1|がある閾値以下かつ|R
R1−GR1|がある閾値以下である場合 RMax1≧GMax1であって、2次元ヒストグラム内
の対角線を(RMax1,RMax1)−(GMax1−
T,GMax1−T)とする正方形領域においてR軸側
への有意性のある偏りがある場合、 f3B(r)=r,f3G(g)=g×RMax1/GMax1 …(5) とする。
| RE1-GE1 | is less than a threshold and | R
When R1−GR1 | is equal to or smaller than a certain threshold value, RMax1 ≧ GMax1, and the diagonal line in the two-dimensional histogram is represented by (RMax1, RMax1) − (GMax1−
If there is a significant bias toward the R axis in a square area defined as (T, GMax1-T), f3B (r) = r, f3G (g) = g × RMax1 / GMax1 (5)

【0076】GMax1≧RMax1であって、2次元ヒ
ストグラム内の対角線を(GMax1,GMax1)−
(RMax1−T,RMax1−T)とする正方形領域に
おいてG軸側への有意性のある偏りがある場合、 f3G(g)=g,f3R(r)=r×GMax1/RMax1 …(6) とする。
GMax1 ≧ RMax1, and the diagonal line in the two-dimensional histogram is represented by (GMax1, GMax1) −
If there is a significant bias toward the G axis in the square area defined as (RMax1−T, RMax1−T), f3G (g) = g, f3R (r) = r × GMax1 / RMax1 (6) I do.

【0077】上記いずれの場合にもあてはまらなかった
場合、 f3R(r)=r,f3G(g)=g …(7) とする。但し、Tはある正数である。
If none of the above cases applies, f3R (r) = r, f3G (g) = g (7) Here, T is a certain positive number.

【0078】さもなければR画素値を補正するf3r
(r)、G画素値を補正するf3g(g)について f3R(r)=r,f3G(g)=g …(8) とする。
Otherwise, f3r for correcting the R pixel value
(r), f3g (g) for correcting the G pixel value: f3R (r) = r, f3G (g) = g (8)

【0079】以上にて、補正式f3R(r),f3G(g),f
3b(b)の算出を終了する。
From the above, the correction equations f3R (r), f3G (g), f
The calculation of 3b (b) ends.

【0080】同様にして、補正器214用補正式f1R
(r),f1G(g),f1b(b)、補正器215用補正式f2R
(r),f2G(g),f2b(b)を算出する。
Similarly, the correction formula f1R for the corrector 214
(r), f1G (g), f1b (b), correction formula f2R for corrector 215
(r), f2G (g) and f2b (b) are calculated.

【0081】以上説明したように、実施形態1によれ
ば、背景画像と対象画像を分離し、それぞれについて符
号化したものを合成する際にそれぞれの画像データの特
徴量を抽出し、合成する対象画像の画素値を補正するこ
とで違和感のない画像合成が行える。また、ブロック単
位での直流成分を補正値算出に用いることで高速な処理
が可能になる。
As described above, according to the first embodiment, when the background image and the target image are separated, and when the coded images are combined, the feature amount of each image data is extracted and the object to be combined is extracted. By correcting the pixel values of the image, it is possible to perform image synthesis without a sense of discomfort. Further, high-speed processing can be performed by using a DC component in block units for calculating a correction value.

【0082】尚、実施形態1においては、対象画像の符
号化にMPEG−4を、それ以外の符号化にMPEG−
1を用いて説明をおこなったが、これに限定されず、こ
れらと同様の機能を果たすものであればなんでもかまわ
ない。
In the first embodiment, MPEG-4 is used for encoding a target image, and MPEG-
1 has been described, but the present invention is not limited to this, and any device that performs the same function as those described above may be used.

【0083】また、メモリ構成はこれに限定されず、ラ
インメモリ等で処理を行ってももちろんかまわないし、
その他の構成であってもよい。
The memory configuration is not limited to this, and it goes without saying that processing may be performed by a line memory or the like.
Other configurations may be used.

【0084】また、各構成要素の一部または全部をCP
U等で動作するソフトウェアによって実現させてももち
ろんかまわない。 <実施形態2>実施形態2は、実施形態1における対象
復号器203、204、復号器205ならびに補正値算
出器213を変更したものである。そこで、実施形態1
と重複する部分についてはその説明を割愛し、変更部に
ついてのみ説明する。
Further, a part or all of each component may be replaced with a CP.
Of course, it may be realized by software operating on U or the like. Embodiment 2 Embodiment 2 is a modification of Embodiment 1 in which the target decoders 203 and 204, the decoder 205, and the correction value calculator 213 are changed. Therefore, the first embodiment
The description of the parts overlapping with the above is omitted, and only the changed part will be described.

【0085】動画像送信システムは実施形態1と同様に
図1の構成を用いる。また、動画像編集装置112は、
実施形態1と同様に図5の構成を用いる。
The moving image transmission system uses the configuration shown in FIG. 1 as in the first embodiment. In addition, the moving image editing device 112
The configuration of FIG. 5 is used as in the first embodiment.

【0086】次に、実施形態2の対象復号器203、2
04の詳細構成について、図10を用いて説明する。
尚、図10では、対象復号器203の詳細構成として説
明し、同様の構成を有する対象復号器204の詳細構成
については、ここでは省略する。
Next, the target decoders 203 and 2 in the second embodiment
The detailed configuration of No. 04 will be described with reference to FIG.
In FIG. 10, the detailed configuration of the target decoder 203 will be described, and the detailed configuration of the target decoder 204 having the same configuration will be omitted.

【0087】図10は本発明の実施形態2の対象復号器
の詳細構成を示すブロック図である。
FIG. 10 is a block diagram showing a detailed configuration of a target decoder according to the second embodiment of the present invention.

【0088】219は端子であり、受信器110からの
符号化データが入力される。401は分離器であり、符
号化データからマスク情報の符号化データと対象画像の
領域の符号化データを分離する。402はマスク情報を
復号するマスク復号器である。403はマスク情報を格
納するマスクメモリである。マスクメモリ403内のマ
スク情報は、端子207より出力される。404は対象
の領域の符号化データを格納する符号メモリである。4
05は対象画像の領域の符号化データを復号する復号器
である。406、407はデマルチプレクサである。4
08、415、422は逆量子化器である。409、4
16、423は高速逆DCT変換器である。
Reference numeral 219 denotes a terminal to which encoded data from the receiver 110 is input. Reference numeral 401 denotes a separator, which separates encoded data of mask information and encoded data of a target image area from the encoded data. Reference numeral 402 denotes a mask decoder that decodes mask information. A mask memory 403 stores mask information. The mask information in the mask memory 403 is output from a terminal 207. A code memory 404 stores the encoded data of the target area. 4
Reference numeral 05 denotes a decoder for decoding the encoded data of the area of the target image. 406 and 407 are demultiplexers. 4
08, 415, and 422 are inverse quantizers. 409, 4
16 and 423 are high-speed inverse DCT converters.

【0089】ここで、実施形態1の高速逆DCT変換器
409、416、423の詳細構成について、図11を
用いて説明する。
Here, the detailed configuration of the high-speed inverse DCT converters 409, 416, and 423 of the first embodiment will be described with reference to FIG.

【0090】図11は本発明の実施形態2の高速逆DC
T変換器の詳細構成を示すブロック図である。
FIG. 11 shows a high-speed inverse DC according to the second embodiment of the present invention.
It is a block diagram which shows the detailed structure of a T converter.

【0091】図11における各ラディックスバタフライ
演算器1101〜1104の出力は、通常のラディック
スバタフライ演算の経路の他に、各段の出力をマルチプ
レクサ1105にてマルチプレクスして出力する経路を
有する。但し、第1段ラディックスバタフライ演算器1
101の前からは直流成分のみがマルチプレクサ110
5へ入力される。また、第2段ラディックスバタフライ
演算器1102の後ろからは2×2低周波成分のラディ
ックスバタフライ演算結果がマルチプレクサ1105へ
入力される。また、第3段ラディックスバタフライ演算
器1103の後ろからは4×4低周波成分のラディック
スバタフライ演算結果がマルチプレクサ1105へ入力
される。また、第4段ラディックスバタフライ演算器1
104の後ろからは8×8の逆DCT結果がマルチプレ
クサ1105へ入力される。
The output of each Radix butterfly operation unit 1101 to 1104 in FIG. 11 has a path for multiplexing and outputting the output of each stage by the multiplexer 1105 in addition to the path of the normal Radix butterfly operation. However, the first stage Radix butterfly operation unit 1
Only the direct current component from the multiplexer
5 is input. From the rear of the second-stage Radix butterfly operation unit 1102, a Radix butterfly operation result of 2 × 2 low frequency components is input to the multiplexer 1105. Also, from the rear of the third-stage Radix butterfly operation unit 1103, a Radix butterfly operation result of 4 × 4 low frequency components is input to the multiplexer 1105. In addition, the fourth stage Radix butterfly operation unit 1
An 8 × 8 inverse DCT result is input to the multiplexer 1105 from the back of the 104.

【0092】再び、図10の説明に戻る。Returning to the description of FIG.

【0093】410、417、424は加算器である。
411、412、413は再生した対象画像の領域の輝
度Yデータを格納する対象メモリである。418、41
9、420は再生した対象の領域画像の色差Cbデータ
を格納する対象メモリである。425、426、427
は再生した対象画像の領域の色差Crデータを格納する
対象メモリである。414、421、428は動き補償
器である。429、433はYCbCr形式の画像デー
タからRGB形式の画像データへの色信号変換を行う色
信号変換器である。430、431、432はバッファ
である。206は端子であり、RGB形式の画像データ
が出力される。208は端子であり、色かぶり補正用画
像情報が出力される。
Reference numerals 410, 417 and 424 denote adders.
411, 412, and 413 are target memories for storing luminance Y data of the reproduced target image area. 418, 41
Reference numerals 9 and 420 are target memories for storing the color difference Cb data of the reproduced target region image. 425, 426, 427
Is a target memory for storing the color difference Cr data of the area of the reproduced target image. 414, 421, 428 are motion compensators. Reference numerals 429 and 433 denote color signal converters for performing color signal conversion from YCbCr format image data to RGB format image data. 430, 431 and 432 are buffers. Reference numeral 206 denotes a terminal from which image data in RGB format is output. Reference numeral 208 denotes a terminal from which color fog correction image information is output.

【0094】上記構成において、入力された符号データ
からマスク情報の符号化データと対象画像の領域の符号
化データを分離器401で分離し、それぞれマスク復号
器402と符号メモリ404に入力する。マスク復号器
402は符号化データを復号してマスク情報を再生し、
マスクメモリ403に格納する。符号メモリ404に格
納された符号化データは復号器405で復号され、量子
化された値が再生された後、デマルチプレクサ407で
輝度Yデータ、色差Cbデータ、色差Crデータにデマ
ルチプレクスされる。輝度Yデータは逆量子化器408
に、色差Cbデータは逆量子化器415に、色差Crデ
ータは逆量子化器422に入力される。
In the above configuration, the coded data of the mask information and the coded data of the target image area are separated by the separator 401 from the input coded data, and are input to the mask decoder 402 and the code memory 404, respectively. The mask decoder 402 decodes the encoded data to reproduce mask information,
It is stored in the mask memory 403. The encoded data stored in the code memory 404 is decoded by the decoder 405 and the quantized value is reproduced, and then demultiplexed by the demultiplexer 407 into luminance Y data, color difference Cb data, and color difference Cr data. . The luminance Y data is converted to an inverse quantizer 408.
The chrominance Cb data is input to the inverse quantizer 415, and the chrominance Cr data is input to the inverse quantizer 422.

【0095】輝度Yデータは逆量子化器408で逆量子
化され、高速逆DCT変換器409でラディックスバタ
フライ演算により逆DCT変換される。I−フレームの
時は動き補償器414は動作せず、0を出力する。P−
フレームとB−フレームの時は動き補償器414は動作
し、動き補償予測値を出力する。加算器410は高速逆
DCT変換器409の出力と動き補償器414の出力を
加算し、対象メモリ411および対象メモリ412また
は413に格納する。一方、I−フレームの時のみに限
り、高速逆DCT変換器409からn段目のラディック
スバタフライ演算結果がマルチプレクサされたのち出力
され、輝度Yデータの低周波成分のみからなる画像デー
タがバッファ432に格納される。
The luminance Y data is inversely quantized by the inverse quantizer 408 and inverse DCT-transformed by the high-speed inverse DCT converter 409 by a radix butterfly operation. In the case of an I-frame, the motion compensator 414 does not operate and outputs 0. P-
At the time of a frame and a B-frame, the motion compensator 414 operates and outputs a motion compensation prediction value. The adder 410 adds the output of the high-speed inverse DCT transformer 409 and the output of the motion compensator 414, and stores the sum in the target memory 411 and the target memory 412 or 413. On the other hand, only in the case of the I-frame, the result of the n-th stage Radix butterfly operation is multiplexed and output from the high-speed inverse DCT converter 409, and the image data consisting only of the low-frequency component of the luminance Y data is stored in the buffer 432. Is stored.

【0096】色差Cbデータは逆量子化器415で逆量
子化され、高速逆DCT変換器416でラディックスバ
タフライ演算により逆DCT変換される。I−フレーム
の時は動き補償器421は動作せず、0を出力する。P
−フレームとB−フレームの時は動き補償器421は動
作し、動き補償予測値を出力する。加算器417は高速
逆DCT変換器416の出力と動き補償器421の出力
を加算し、対象メモリ418および対象メモリ419ま
たは420に格納する。一方、I−フレームの時のみに
限り、高速逆DCT変換器416からn段目のラディッ
クスバタフライ演算結果がマルチプレクサされたのち出
力され色差Cbデータの低周波成分のみからなる画像デ
ータがバッファ431に格納される。
The color difference Cb data is inversely quantized by an inverse quantizer 415 and inverse DCT-transformed by a high-speed inverse DCT converter 416 by a radix butterfly operation. In the case of an I-frame, the motion compensator 421 does not operate and outputs 0. P
The motion compensator 421 operates at the time of a -frame and a B-frame, and outputs a motion compensation prediction value. The adder 417 adds the output of the high-speed inverse DCT converter 416 and the output of the motion compensator 421, and stores the result in the target memory 418 and the target memory 419 or 420. On the other hand, only in the case of the I-frame, the high-speed inverse DCT converter 416 multiplexes the n-th stage Radix butterfly operation result and outputs the image data consisting of only the low-frequency component of the color difference Cb data and stores the image data in the buffer 431. Is done.

【0097】色差Crデータは逆量子化器422で逆量
子化され、高速逆DCT変換器423でラディックスバ
タフライ演算により逆DCT変換される。I−フレーム
の時は動き補償器428は動作せず、0を出力する。P
−フレームとB−フレームの時は動き補償器428は動
作し、動き補償予測値を出力する。加算器424は高速
逆DCT変換器423の出力と動き補償器428の出力
を加算し、対象メモリ425および対象メモリ426ま
たは427に格納する。一方、I−フレームの時のみに
限り、高速逆DCT変換器423からn段目のラディッ
クスバタフライ演算結果がマルチプレクサされたのち出
力され色差Crデータの低周波成分のみからなる画像デ
ータがバッファ430に格納される。
The chrominance Cr data is inversely quantized by an inverse quantizer 422 and inverse DCT-transformed by a high-speed inverse DCT converter 423 by a radix butterfly operation. In the case of an I-frame, the motion compensator 428 does not operate and outputs 0. P
The motion compensator 428 operates at the time of a -frame and a B-frame, and outputs a motion compensation prediction value. The adder 424 adds the output of the high-speed inverse DCT transformer 423 and the output of the motion compensator 428, and stores them in the target memory 425 and the target memory 426 or 427. On the other hand, only in the case of an I-frame, the n-th stage Radix butterfly operation result is multiplexed from the high-speed inverse DCT converter 423 and output and stored in the buffer 430. Is done.

【0098】マクロブロックの処理が終了した時、バッ
ファ430、431、432より輝度Yデータ、色差C
bデータ、色差Crデータが読み出され、色信号変換器
273でRGB形式に変換された上で、色かぶり補正用
画像情報として端子208から出力される。
When the processing of the macro block is completed, the luminance Y data and the chrominance C are output from the buffers 430, 431, and 432.
The b data and the color difference Cr data are read out, converted into the RGB format by the color signal converter 273, and then output from the terminal 208 as color fog correction image information.

【0099】また、対象メモリ411、418、425
よりYCbCr形式の画像データが読み出される際に
は、色信号変換器429でRGB形式の画像データに変
換された上で端子206より出力される。
Also, the target memories 411, 418, 425
When image data in the YCbCr format is read, the image data is converted into image data in the RGB format by the color signal converter 429 and then output from the terminal 206.

【0100】次に、実施形態2の復号器205の詳細構
成について、図12を用いて説明する。
Next, the detailed configuration of the decoder 205 according to the second embodiment will be described with reference to FIG.

【0101】図12は本発明の実施形態2の復号器の詳
細構成を示すブロック図である。
FIG. 12 is a block diagram showing a detailed configuration of the decoder according to the second embodiment of the present invention.

【0102】202は端子であり、記憶装置116から
の符号化データが入力される。452は符号化データを
格納する符号メモリである。453は符号化データを復
号する復号器である。454、455はデマルチプレク
サである。456、463、470は逆量子化器であ
る。457、464、471は高速逆DCT変換器であ
る。尚、高速逆DCT変換器457、464、471の
詳細構成は図11と同様に構成される。458、46
5、472は加算器である。459、460、461は
符号化データを復号して得られた画像の輝度Yデータを
格納するメモリである。466、467、468は符号
化データを復号して得られた画像の色差Cbデータを格
納するメモリである。473、474、475は符号化
データを復号して得られた画像の色差Crデータを格納
するメモリである。462、469、476は動き補償
器である。477、481はYCbCr形式の画像デー
タからRGB形式の画像データへの色信号変換を行う色
信号変換器である。478、479、480はバッファ
である。225は端子であり、RGB形式の画像データ
が出力される。212は端子であり、色かぶり補正用画
像情報が出力される。
Reference numeral 202 denotes a terminal to which encoded data from the storage device 116 is input. Reference numeral 452 denotes a code memory for storing encoded data. A decoder 453 decodes the encoded data. 454 and 455 are demultiplexers. Reference numerals 456, 463, and 470 denote inverse quantizers. 457, 464 and 471 are high-speed inverse DCT converters. The detailed configuration of the high-speed inverse DCT converters 457, 464, and 471 is the same as that shown in FIG. 458, 46
5, 472 are adders. Reference numerals 459, 460, and 461 denote memories for storing luminance Y data of an image obtained by decoding encoded data. Reference numerals 466, 467, and 468 denote memories for storing color difference Cb data of an image obtained by decoding encoded data. Reference numerals 473, 474, and 475 are memories for storing color difference Cr data of an image obtained by decoding encoded data. 462, 469 and 476 are motion compensators. Reference numerals 477 and 481 denote color signal converters for performing color signal conversion from YCbCr format image data to RGB format image data. 478, 479, and 480 are buffers. Reference numeral 225 denotes a terminal from which image data in RGB format is output. Reference numeral 212 denotes a terminal from which color cast image information is output.

【0103】上記構成において、符号メモリ452に格
納された符号化データは復号器453で復号され量子化
された値が再生された後、デマルチプレクサ455で輝
度Yデータ、色差Cbデータ、色差Crデータにデマル
チプレクスされる。輝度Yデータは逆量子化器456
に、色差Cbデータは逆量子化器463に、色差Crデ
ータは逆量子化器470に入力される。
In the above configuration, the coded data stored in the code memory 452 is decoded by the decoder 453 and the quantized value is reproduced, and then the luminance data Y, the chrominance Cb data, and the chrominance Cr data are decoded by the demultiplexer 455. Is demultiplexed. The luminance Y data is converted to an inverse quantizer 456.
The chrominance Cb data is input to the inverse quantizer 463, and the chrominance Cr data is input to the inverse quantizer 470.

【0104】輝度Yデータは逆量子化器456で逆量子
化され、高速逆DCT変換器457でラディックスバタ
フライ演算により逆DCT変換される。I−フレームの
時は動き補償器462は動作せず、0を出力する。P−
フレームとB−フレームの時は動き補償器462は動作
し、動き補償予測値を出力する。加算器458は高速逆
DCT変換器457の出力と動き補償器462の出力を
加算し、メモリ459およびメモリ460または461
に格納する。一方、I−フレームの時のみに限り、高速
逆DCT変換器457からn段目のラディックスバタフ
ライ演算結果がマルチプレクサされたのち出力され、輝
度Yデータの低周波成分のみからなる画像データがバッ
ファ480に格納される。
The luminance Y data is inversely quantized by an inverse quantizer 456 and inverse DCT-transformed by a high-speed inverse DCT converter 457 by a Radix butterfly operation. During an I-frame, the motion compensator 462 does not operate and outputs 0. P-
At the time of a frame and a B-frame, the motion compensator 462 operates and outputs a motion compensation prediction value. The adder 458 adds the output of the high-speed inverse DCT converter 457 and the output of the motion compensator 462, and outputs the result from the memory 459 and the memory 460 or 461.
To be stored. On the other hand, only during the I-frame, the high-speed inverse DCT converter 457 outputs the result of the nth-stage Radix butterfly operation after being multiplexed, and outputs the image data consisting only of the low-frequency component of the luminance Y data to the buffer 480. Is stored.

【0105】色差Crデータは逆量子化器463で逆量
子化され、高速逆DCT変換器464でラディックスバ
タフライ演算により逆DCT変換される。I−フレーム
の時は動き補償器469は動作せず、0を出力する。P
−フレームとB−フレームの時は動き補償器469は動
作し、動き補償予測値を出力する。加算器465は高速
逆DCT変換器464の出力と動き補償器469の出力
を加算し、メモリ466およびメモリ467または46
8に格納する。一方、I−フレームの時のみに限り、高
速逆DCT変換器464からn段目のラディックスバタ
フライ演算結果がマルチプレクサされたのち出力され、
色差Crデータの低周波成分のみからなる画像データが
バッファ479に格納される。
The chrominance Cr data is inversely quantized by an inverse quantizer 463 and inverse DCT-transformed by a high-speed inverse DCT converter 464 by a radix butterfly operation. In the case of an I-frame, the motion compensator 469 does not operate and outputs 0. P
The motion compensator 469 operates at the time of a -frame and a B-frame, and outputs a motion compensation prediction value. The adder 465 adds the output of the high-speed inverse DCT converter 464 and the output of the motion compensator 469, and outputs the result to the memory 466 and the memory 467 or 46.
8 is stored. On the other hand, only in the case of the I-frame, the n-th stage Radix butterfly operation result is multiplexed and output from the high-speed inverse DCT converter 464,
Image data consisting of only low-frequency components of the color difference Cr data is stored in the buffer 479.

【0106】色差Cbデータは逆量子化器470で逆量
子化され、高速逆DCT変換器471でラディックスバ
タフライ演算により逆DCT変換される。I−フレーム
の時は動き補償器476は動作せず、0を出力する。P
−フレームとB−フレームの時は動き補償器476は動
作し、動き補償予測値を出力する。加算器472は高速
逆DCT変換器471の出力と動き補償器476の出力
を加算し、メモリ473およびメモリ474または47
5に格納する。一方、I−フレームの時のみに限り、高
速逆DCT変換器471からn段目のラディックスバタ
フライ演算結果がマルチプレクサされたのち出力され、
色差Cbデータの低周波成分のみからなる画像データが
バッファ478に格納される。
The chrominance Cb data is inversely quantized by an inverse quantizer 470 and inverse DCT-transformed by a high-speed inverse DCT converter 471 by a radix butterfly operation. In the case of an I-frame, the motion compensator 476 does not operate and outputs 0. P
The motion compensator 476 operates at the time of a -frame and a B-frame, and outputs a motion compensation prediction value. An adder 472 adds the output of the high-speed inverse DCT converter 471 and the output of the motion compensator 476, and outputs the result to the memory 473 and the memory 474 or 47.
5 is stored. On the other hand, only in the case of an I-frame, the n-th stage Radix butterfly operation result is multiplexed from the high-speed inverse DCT converter 471 and output.
Image data including only the low-frequency component of the color difference Cb data is stored in the buffer 478.

【0107】マクロブロックの処理が終了した時、バッ
ファ478、479、480より輝度Yデータ、色差C
bデータ、色差Crデータが読み出され、色信号変換器
481でRGB形式に変換された上で、色かぶり補正用
画像情報として端子212から出力される。
When the processing of the macro block is completed, the luminance Y data and the color difference C are output from the buffers 478, 479 and 480.
The b data and the color difference Cr data are read out, converted into the RGB format by the color signal converter 481, and then output from the terminal 212 as color fog correction image information.

【0108】また、メモリ459、466、473より
YCbCr形式の画像データが読み出される際には、色
信号変換器429でRGB形式の画像データに変換され
た上で端子225より出力される。
When image data in the YCbCr format is read from the memories 459, 466, and 473, the image data is converted into image data in the RGB format by the color signal converter 429 and then output from the terminal 225.

【0109】以上説明した動画像編集装置112の構成
において、1フレーム分の復号が終了し、対象符号器2
03内の対象メモリ411、418、425と、対象符
号器204内の対象メモリ411、418、425と、
符号器205内のメモリ459、466、473に画像
データが格納されたら、補正値算出器213は、色かぶ
り補正用画像情報を用いて後述の補正式算出アルゴリズ
ムから、以下の補正式を求める。つまり、補正器214
用R画素値補正式f1R(x)、補正器214用G画素値補
正式f1G(x)、補正器214用B画素値補正式f1B(x)
と、補正器215用R画素値補正式f2R(x)、補正器2
15用G画素値補正式f2G(x)、補正器215用B画素
値補正式f2B(x)と、補正器216用R画素値補正式f
3R(x)、補正器216用G画素値補正式f3G(x)、補正
器216用B画素値補正式f3B(x)とを求める。
In the configuration of the moving picture editing apparatus 112 described above, decoding of one frame is completed,
03; target memories 411, 418, and 425 in the target encoder 204;
When the image data is stored in the memories 459, 466, and 473 in the encoder 205, the correction value calculator 213 obtains the following correction formula from the correction formula calculation algorithm described later using the color cast correction image information. That is, the corrector 214
R pixel value correction formula f1R (x), G pixel value correction formula f1G (x) for corrector 214, B pixel value correction formula f1B (x) for corrector 214
And R pixel value correction formula f2R (x) for corrector 215, corrector 2
15 G pixel value correction formula f2G (x), corrector 215 B pixel value correction formula f2B (x), and corrector 216 R pixel value correction formula f
3R (x), a G pixel value correction formula f3G (x) for the corrector 216, and a B pixel value correction formula f3B (x) for the corrector 216 are obtained.

【0110】その後、復号器205から走査線の画素順
にラスタスキャンにてRGB画素値を読み出し、補正器
216で補正を行い、画像合成器217に入力する。補
正器216では入力されたR画素値r、G画素値g、B
画素値bに対して補正式f3R(x),f3G(x),f3B(x)
による補正を次式にしたがって行い、補正されたR画素
値R、G画素値G、B画素値Bを求め、出力する。
After that, the RGB pixel values are read from the decoder 205 by raster scan in the order of the pixels of the scanning line, corrected by the corrector 216, and input to the image synthesizer 217. In the corrector 216, the input R pixel value r, G pixel value g, B
Correction formulas f3R (x), f3G (x), f3B (x) for pixel value b
Is performed according to the following equation to obtain and output corrected R pixel values R, G pixel values G, and B pixel values B.

【0111】 R=f3R(r),G=f3G(g),B=f3b(b) …(9) 一方、スキャン位置が対象復号器203の対象画像デー
タを合成する位置に到達したら、対象復号器203から
マスク情報とRGB画素値を読み出し、補正器214で
補正を行い、画像合成器217に入力する。補正器21
4では、入力されたR画素値r、G画素値g、B画素値
bに対して補正式f1R(x)、f1G(x)、f1B(x)による
補正を次式にしたがって行い、補正されたR画素値R、
G画素値G、B画素値Bを求め、出力する。
R = f3R (r), G = f3G (g), B = f3b (b) (9) On the other hand, when the scan position reaches the position where the target decoder 203 combines the target image data, the target decoding is performed. The mask information and the RGB pixel values are read from the device 203, corrected by the corrector 214, and input to the image synthesizer 217. Corrector 21
In step 4, the input R pixel value r, G pixel value g, and B pixel value b are corrected by the correction formulas f1R (x), f1G (x), and f1B (x) according to the following equations. R pixel value R,
A G pixel value G and a B pixel value B are obtained and output.

【0112】 R=f1R(r),G=f1G(g),B=f1b(b) …(10) また、スキャン位置が対象復号器204の対象画像デー
タを合成する位置に到達したら、対象復号器204から
マスク情報とRGB画素値を読み出し、補正器215で
補正を行い、画像合成器217に入力する。補正器21
4では、入力されたR画素値r、G画素値g、B画素値
bに対して補正式f2R(x)、f2G(x)、f2B(x)によ
る補正を次式にしたがって行い、補正されたR画素値
R、G画素値G、B画素値Bを求め、出力する。
R = f1R (r), G = f1G (g), B = f1b (b) (10) When the scan position reaches the position where the target image data of the target decoder 204 is synthesized, the target decoding is performed. The mask information and the RGB pixel values are read from the device 204, corrected by the corrector 215, and input to the image synthesizer 217. Corrector 21
In step 4, the input R pixel value r, G pixel value g, and B pixel value b are corrected by the correction formulas f2R (x), f2G (x), and f2B (x) according to the following equations. The calculated R pixel value R, G pixel value G, and B pixel value B are output.

【0113】 R=f2R(r),G=f2G(g),B=f2b(b) …(11) 画像合成器217は、マスク情報が対象復号器203の
対象画像データを示している場合は補正器214からの
画素値を、マスク情報が対象復号器204の対象画像デ
ータを示している場合は補正器215からの画素値を、
これらのいずれにもあたらない場合は補正器216から
の画素値を出力することで、画像の合成を行い、端子2
18から符号化器113に出力する。図9に、背景10
50と人1051とを補正して得られた画像である背景
1160と人1061と、人1052を補正して得られ
た画像である人1062と、人1053を補正して得ら
れた画像である人1063とを合成した様子を示す。符
号化器113は出力された画像をMPEG−1の符号化
方式で符号化し、送信器114を介して通信網115に
送出される。
R = f2R (r), G = f2G (g), B = f2b (b) (11) The image synthesizer 217 determines whether the mask information indicates the target image data of the target decoder 203. The pixel value from the corrector 214, and the pixel value from the corrector 215 when the mask information indicates the target image data of the target decoder 204,
If none of the above cases is satisfied, the image is synthesized by outputting the pixel value from the corrector 216 and the terminal 2
18 to the encoder 113. FIG. 9 shows the background 10
A background 1160 and a person 1061, which are images obtained by correcting 50 and the person 1051, a person 1062 which is an image obtained by correcting the person 1052, and an image obtained by correcting the person 1053. This shows a state in which a person 1063 is combined. The encoder 113 encodes the output image using the MPEG-1 encoding method, and sends the image to the communication network 115 via the transmitter 114.

【0114】上記動作において、補正値算出器213の
補正式算出アルゴリズムは下記に従って動作する。
In the above operation, the correction formula calculating algorithm of the correction value calculator 213 operates according to the following.

【0115】補正器216用補正式f3R(r),f3G
(g),f3b(b)は以下のように算出する。
Correction formulas f3R (r), f3G for corrector 216
(g) and f3b (b) are calculated as follows.

【0116】人間の目は青色に対しては比較的鈍く、補
正効果がさほど現れない。そこで、B画素値を補正する
f3b(b)については、 f3B(b)=b …(12) とする。
The human eye is relatively dull for blue, and does not show much correction effect. Therefore, f3b (b) for correcting the B pixel value is given by f3B (b) = b (12).

【0117】次に、復号器205からの色かぶり補正用
画像情報224におけるR情報の最大値RMax1、平
均値RE1、分散RR1を求める。
Next, the maximum value RMax1, average value RE1, and variance RR1 of the R information in the color fog correction image information 224 from the decoder 205 are obtained.

【0118】次に、復号器205からの色かぶり補正用
画像情報224におけるG情報の最大値GMax1、平
均値GE1、分散GR1を求める。
Next, the maximum value GMax1, average value GE1, and variance GR1 of the G information in the color fog correction image information 224 from the decoder 205 are obtained.

【0119】そして、R情報の値とG情報の値との分布
を示す2次元ヒストグラムを算出する。
Then, a two-dimensional histogram showing the distribution of the value of the R information and the value of the G information is calculated.

【0120】|RE1−GE1|がある閾値以下かつ|R
R1−GR1|がある閾値以下である場合 RMax1≧GMax1であって、2次元ヒストグラム内
の対角線を(RMax1,RMax1)−(GMax1−
T,GMax1−T)とする正方形領域において、この
領域におけるヒストグラムの重心と分散とヒストグラム
の値が0である領域とから、R軸側への有意性のある偏
りが認められる場合、/f3R(x)と/f3G(x)とを /f3R(x)=r,/f3G(g)=g×RMax1/GMax1…(13) と定める。
| RE1-GE1 | is equal to or less than a threshold and | R
When R1−GR1 | is equal to or smaller than a certain threshold value, RMax1 ≧ GMax1, and the diagonal line in the two-dimensional histogram is represented by (RMax1, RMax1) − (GMax1−
T, GMax1−T), if there is a significant bias toward the R axis from the center of gravity and variance of the histogram and the area where the histogram value is 0 in this area, / f3R ( x) and / f3G (x) are defined as / f3R (x) = r, / f3G (g) = g × RMax1 / GMax1 (13).

【0121】GMax1≧RMax1であって、2次元ヒ
ストグラム内の対角線を(GMax1,GMax1)−
(RMax1−T,RMax1−T)とする正方形領域に
おいて、この領域におけるヒストグラムの重心と分散と
ヒストグラムの値が0である領域とから、G軸側への有
意性のある偏りが認められる場合、/f3R(x)と/f3G
(x)とを /f3G(g)=g,/f3R(r)=r×GMax1/RMax1…(14) と定める。
GMax1 ≧ RMax1, and the diagonal line in the two-dimensional histogram is represented by (GMax1, GMax1) −
In a square area defined as (RMax1−T, RMax1−T), when a significant bias toward the G axis is recognized from the center of gravity and variance of the histogram and the area where the value of the histogram is 0 in this area, / f3R (x) and / f3G
(x) and / f3G (g) = g, / f3R (r) = r × GMax1 / RMax1 (14)

【0122】上記いずれの場合にもあてはまらなかった
場合、/f3R(x)と/f3G(x)とを /f3R(r)=r,/f3G(g)=g …(15) と定める。但し、Tはある正数である。
If none of the above cases applies, / f3R (x) and / f3G (x) are determined as / f3R (r) = r, / f3G (g) = g (15). Here, T is a certain positive number.

【0123】さもなければ/f3R(x)と/f3G(x)とを /f3R(r)=r,/f3G(g)=g …(16) と定める。Otherwise, / f3R (x) and / f3G (x) are determined as / f3R (r) = r, / f3G (g) = g (16).

【0124】以上が|RE1−GE1|と|RR1−GR1
|とによる場合分けである。
The above is | RE1-GE1 | and | RR1-GR1.
|.

【0125】1フレーム前の補正式を基に、現在の補正
式を次のように定める。
Based on the correction formula one frame before, the current correction formula is determined as follows.

【0126】 f3R(x)=f3R(x)+γ(/f3R(x)−f3R(x)) f2G(x)=f3G(x)+γ(/f3G(x)−f3G(x)) …(17) ここで、γは、補正式の時変化追従用重み変数である。F3R (x) = f3R (x) + γ (/ f3R (x) −f3R (x)) f2G (x) = f3G (x) + γ (/ f3G (x) −f3G (x)) (17) Here, γ is a time-variant tracking weight variable of the correction formula.

【0127】以上にて、補正式f3R(r),f3G(g),f
3b(b)の算出を終了する。
As described above, the correction equations f3R (r), f3G (g), f
The calculation of 3b (b) ends.

【0128】同様にして、補正器214用補正式f1R
(r),f1G(g),f1b(b)、補正器215用補正式f2R
(r),f2G(g),f2b(b)を算出する。
Similarly, the correction equation f1R for the corrector 214
(r), f1G (g), f1b (b), correction formula f2R for corrector 215
(r), f2G (g) and f2b (b) are calculated.

【0129】以上説明したように、実施形態2によれ
ば、背景画像と対象画像を分離し、それぞれについて符
号化したものを合成する際にそれぞれの画像データの特
徴量を抽出し、合成する対象画像の画素値を補正するこ
とで違和感のない画像合成が行える。また、対象画像の
サイズと演算速度との兼ね合いにおいて、直流成分、も
しくは2×2あるいは4×4の低周波成分の逆DCT結
果、もしくは8×8の逆DCT結果を選択的に、補正値
算出に用いることで柔軟で精度の高い処理が可能にな
る。さらに、色かぶり補正処理を時変化にゆるやかに追
従させることで、変化の激しい画像に対しても違和感の
無い画像合成が行える。
As described above, according to the second embodiment, when separating the background image and the target image and synthesizing the coded images, the characteristic amount of each image data is extracted and the target image is synthesized. By correcting the pixel values of the image, it is possible to perform image synthesis without a sense of discomfort. Further, in consideration of the size of the target image and the calculation speed, a correction value is calculated by selectively selecting a DC component or an inverse DCT result of a 2 × 2 or 4 × 4 low frequency component or an 8 × 8 inverse DCT result. In this case, flexible and highly accurate processing can be performed. Furthermore, by causing the color fogging correction process to slowly follow the time change, it is possible to perform image synthesis without discomfort even for an image that changes rapidly.

【0130】尚、実施形態2においては、対象画像の符
号化にMPEG−4を、それ以外の符号化にMPEG−
1を用いて説明をおこなったが、これに限定されず、こ
れらと同様の機能を果たすものであればなんでもかまわ
ない。
In the second embodiment, MPEG-4 is used for encoding a target image, and MPEG-
1 has been described, but the present invention is not limited to this, and any device that performs the same function as those described above may be used.

【0131】また、メモリ構成はこれに限定されず、ラ
インメモリ等で処理を行ってももちろんかまわないし、
その他の構成であってもよい。
The memory configuration is not limited to this, and it goes without saying that processing may be performed by a line memory or the like.
Other configurations may be used.

【0132】また、各構成要素の一部または全部をCP
U等で動作するソフトウエアによって実現させてももち
ろんかまわない。 <実施形態3>実施形態3は、実施形態1に動画像編集
装置112を変更したものである。そこで、実施形態1
と重複する部分についてはその説明を割愛し、変更部に
ついてのみ説明する。
A part or all of the constituent elements may be replaced by a CP.
Of course, it may be realized by software operating on U or the like. <Third Embodiment> A third embodiment is a modification of the first embodiment in which the moving image editing apparatus 112 is modified. Therefore, the first embodiment
The description of the parts overlapping with the above is omitted, and only the changed part will be described.

【0133】動画像送信システムは実施形態1と同様に
図1の構成を用いる。
The moving image transmission system uses the configuration shown in FIG. 1 as in the first embodiment.

【0134】次に、実施形態3の動画像編集装置112
の詳細構成について、図13を用いて説明する。
Next, the moving picture editing apparatus 112 according to the third embodiment
Will be described with reference to FIG.

【0135】図13は本発明の実施形態3の動画像編集
装置の詳細構成を示すブロック図である。
FIG. 13 is a block diagram showing a detailed configuration of the moving picture editing apparatus according to the third embodiment of the present invention.

【0136】1200、1201、1202は端子であ
り、端子1200は受信器110から、端子1201は
受信器111から、端子1202は記憶装置116から
の符号化データが入力される。これらの符号化データ
は、対象復号器1203、1204および復号器120
5に入力される。端子1206、1209、1225か
らは画像データが出力される。端子1207、121
0、1212からはコントラスト補正値を算出するため
に必要なコントラスト補正用画像情報1222、122
3、1224がそれぞれ出力される。端子1207、1
210からはマスク情報が出力される。1213はコン
トラスト補正用画像情報から補正値を算出する補正値算
出器である。1214、1215、1216は補正値か
ら画像データのコントラストを補正する補正器である。
1217は画像データとマスク情報とから画像データの
合成を行う画像合成器である。1218は端子であり、
合成された画像データを符号化器113に出力する。
Reference numerals 1200, 1201, and 1202 denote terminals. The terminal 1200 receives encoded data from the receiver 110, the terminal 1201 receives encoded data from the receiver 111, and the terminal 1202 receives encoded data from the storage device. These encoded data are supplied to the target decoders 1203 and 1204 and the decoders 1203 and 1204.
5 is input. Image data is output from the terminals 1206, 1209, and 1225. Terminals 1207, 121
From 0 and 1212, contrast correction image information 1222 and 122 necessary for calculating a contrast correction value.
3 and 1224 are output. Terminals 1207, 1
210 outputs mask information. A correction value calculator 1213 calculates a correction value from the image information for contrast correction. 1214, 1215 and 1216 are correctors for correcting the contrast of the image data from the correction values.
Reference numeral 1217 denotes an image synthesizer that synthesizes image data from the image data and the mask information. 1218 is a terminal,
The combined image data is output to the encoder 113.

【0137】次に、実施形態3の対象復号器1203、
1204の詳細構成について、図14を用いて説明す
る。尚、図14では、対象復号器1203の詳細構成と
して説明し、対象復号器1204の詳細構成は同様なの
で、ここでは省略する。
Next, the target decoder 1203 of the third embodiment,
The detailed configuration of 1204 will be described with reference to FIG. In FIG. 14, the detailed configuration of the target decoder 1203 will be described, and the detailed configuration of the target decoder 1204 is the same.

【0138】図14は本発明の実施形態3の対象復号器
の詳細構成を示すブロック図である。
FIG. 14 is a block diagram showing a detailed configuration of a target decoder according to the third embodiment of the present invention.

【0139】219は端子であり、受信器110からの
符号化データが入力される。1241は分離器であり、
符号化データからマスク情報の符号化データと対象画像
の領域の符号化データを分離する。1242はマスク情
報を復号するマスク復号器である。1243はマスク情
報を格納するマスクメモリである。マスクメモリ124
3内のマスク情報は、端子1207より出力される。1
244は対象画像の領域の符号化データを格納する符号
メモリである。1245は対象画像の領域の符号化デー
タを復号する復号器である。1246は逆量子化器であ
る。逆量子化された画像データ内の直流情報は、コント
ラスト補正用画像情報として端子1208から出力され
る。1247は逆DCT変換器である。1248は加算
器である。1249、1250、1251は再生した対
象画像の領域の画像データを格納する対象メモリであ
る。1252は動き補償器である。対象メモリ1249
内の画像データは、端子1206より出力される。
Reference numeral 219 denotes a terminal to which encoded data from the receiver 110 is input. 1241 is a separator;
The encoded data of the mask information and the encoded data of the area of the target image are separated from the encoded data. Reference numeral 1242 denotes a mask decoder that decodes mask information. Reference numeral 1243 denotes a mask memory for storing mask information. Mask memory 124
The mask information in 3 is output from the terminal 1207. 1
Reference numeral 244 denotes a code memory for storing the encoded data of the area of the target image. Reference numeral 1245 denotes a decoder for decoding the encoded data of the area of the target image. Reference numeral 1246 denotes an inverse quantizer. The DC information in the dequantized image data is output from the terminal 1208 as image information for contrast correction. Reference numeral 1247 denotes an inverse DCT converter. 1248 is an adder. Reference numerals 1249, 1250, and 1251 denote target memories for storing image data of a reproduced target image area. Reference numeral 1252 denotes a motion compensator. Target memory 1249
Are output from the terminal 1206.

【0140】上記構成において、入力された符号データ
からマスク情報の符号化データと対象画像の領域の符号
化データを分離器1241で分離し、それぞれマスク復
号器1242と符号メモリ1244に入力する。マスク
復号器1242は符号化データを復号してマスク情報を
再生し、マスクメモリ1243に格納する。符号メモリ
1244に格納された符号化データは復号器1245で
復号され、量子化された値を再生する。この値は、逆量
子化器1246で逆量子化され、逆DCT変換器124
7で逆DCT変換される。I−フレームの時は動き補償
器1252は動作せず、0を出力する。P−フレームと
B−フレームの時は動き補償器1252は動作し、動き
補償予測値を出力する。加算器1248は逆DCT変換
器1247の出力と動き補償器1252の出力を加算
し、対象メモリ1249および対象メモリ1250また
は1251に格納する。一方、逆量子化器1246から
は、輝度データの平均値を表す直流成分が、コントラス
ト補正用画像情報として端子1208から出力される。
In the above configuration, the coded data of the mask information and the coded data of the target image area are separated from the input coded data by the separator 1241 and input to the mask decoder 1242 and the code memory 1244, respectively. The mask decoder 1242 decodes the encoded data to reproduce the mask information, and stores the mask information in the mask memory 1243. The encoded data stored in the code memory 1244 is decoded by the decoder 1245, and the quantized value is reproduced. This value is inversely quantized by the inverse quantizer 1246 and the inverse DCT transformer 124
7 is subjected to inverse DCT. In the case of an I-frame, the motion compensator 1252 does not operate and outputs 0. At the time of a P-frame and a B-frame, the motion compensator 1252 operates and outputs a motion compensation prediction value. The adder 1248 adds the output of the inverse DCT transformer 1247 and the output of the motion compensator 1252, and stores the result in the target memory 1249 and the target memory 1250 or 1251. On the other hand, a DC component representing the average value of the luminance data is output from the terminal 1208 from the inverse quantizer 1246 as image information for contrast correction.

【0141】次に、実施形態3の復号器1205の詳細
構成について、図15を用いて説明する。
Next, the detailed configuration of the decoder 1205 according to the third embodiment will be described with reference to FIG.

【0142】図15は本発明の実施形態3の復号器の詳
細構成を示すブロック図である。
FIG. 15 is a block diagram showing a detailed configuration of the decoder according to the third embodiment of the present invention.

【0143】1221は端子であり、記憶装置116か
らの符号化データが入力される。1261は符号化デー
タを格納する符号メモリである。1262は符号化デー
タを復号する復号器である。1263は逆量子化器であ
る。逆量子化された画像データ内の直流情報は、コント
ラスト補正用画像情報として端子1212から出力され
る。1264は逆DCT変換器である。1265は加算
器である。1266、1267、1268は復号された
画像データを格納するメモリである。1269は動き補
償器である。メモリ1266内の画像データは、端子1
225より出力される。
Reference numeral 1221 denotes a terminal to which encoded data from the storage device 116 is input. Reference numeral 1261 denotes a code memory for storing encoded data. Reference numeral 1262 denotes a decoder for decoding encoded data. Reference numeral 1263 denotes an inverse quantizer. The DC information in the dequantized image data is output from the terminal 1212 as image information for contrast correction. Reference numeral 1264 denotes an inverse DCT converter. 1265 is an adder. Reference numerals 1266, 1267, and 1268 denote memories for storing the decoded image data. Reference numeral 1269 denotes a motion compensator. The image data in the memory 1266 is
225.

【0144】上記構成において、符号メモリ1261に
格納された符号化データは復号器1262で復号され、
量子化された値を再生する。この値は、逆量子化器12
63で逆量子化され、逆DCT変換器1264で逆DC
T変換される。I−フレームの時は動き補償器1269
は動作せず、0を出力する。P−フレームとB−フレー
ムの時は動き補償器1269は動作し、動き補償予測値
を出力する。加算器1265は逆DCT変換器1264
の出力と動き補償器1269の出力を加え、メモリ12
66およびメモリ1267または1268に格納する。
一方、逆量子化器1263からは、輝度データの平均値
を表す直流成分が、コントラスト補正用画像情報として
端子1212から出力される。
In the above configuration, the encoded data stored in the code memory 1261 is decoded by the decoder 1262,
Regenerate the quantized value. This value is calculated by the inverse quantizer 12
The inverse DCT is performed by the inverse DCT converter 1264.
T conversion is performed. Motion compensator 1269 for I-frame
Does not operate and outputs 0. At the time of the P-frame and the B-frame, the motion compensator 1269 operates and outputs a motion compensation prediction value. The adder 1265 is an inverse DCT converter 1264
Of the motion compensator 1269 and the output of the memory
66 and the memory 1267 or 1268.
On the other hand, a DC component representing the average value of the luminance data is output from the terminal 1212 from the inverse quantizer 1263 as contrast correction image information.

【0145】以上説明した動画像編集装置112の構成
において、1フレーム分の復号が終了し、対象符号器1
203内の対象メモリ1249と、対象符号器1204
内の対象メモリ1249と、符号器1205内のメモリ
1266に画像データが格納されたら、補正値算出器1
213は、コントラスト補正用画像情報を用いて後述の
補正式算出アルゴリズムから、以下の補正式を求める。
つまり、補正器1214用補正式f1(x)と、補正器1
215用補正式f2(x)と、補正器1216用補正式f3
(x)とを求める。
In the structure of the moving picture editing apparatus 112 described above, decoding of one frame is completed.
The target memory 1249 in the target 203 and the target encoder 1204
When the image data is stored in the target memory 1249 in the memory and the memory 1266 in the encoder 1205, the correction value calculator 1
213 obtains the following correction formula from the correction formula calculation algorithm described below using the image information for contrast correction.
That is, the correction formula f1 (x) for the corrector 1214 and the corrector 1
The correction formula f2 (x) for the 215 and the correction formula f3 for the corrector 1216
(x).

【0146】その後、復号器1205内のメモリ126
6から走査線の画素順にラスタスキャンにて画素値を読
み出し、補正器1216で補正を行い、画像合成器12
17に入力する。補正器1216では入力された画素値
pに対して補正式f3(x)による補正を次式にしたがっ
て行い、補正された画素値Pを求め、出力する。
After that, the memory 126 in the decoder 1205
6, pixel values are read out by raster scan in the order of the pixels of the scanning line, corrected by the corrector 1216, and
Enter 17. The corrector 1216 corrects the input pixel value p by the correction formula f3 (x) according to the following formula, obtains a corrected pixel value P, and outputs the corrected pixel value P.

【0147】 P=f3(p) …(1a) 一方、スキャン位置が対象復号器1203の対象画像デ
ータを合成する位置に到達したら、対象復号器1203
内のマスクメモリ1243と対象メモリ1249からマ
スク情報と画像データを読み出し、補正器1214で補
正を行い、画像合成器1217に入力する。補正器12
14では入力された画素値pに対して補正式f1(x)に
よる補正を次式にしたがって行い、補正された画素値P
を求め、出力する。
P = f3 (p) (1a) On the other hand, when the scan position reaches the position where the target image data of the target decoder 1203 is synthesized, the target decoder 1203
The mask information and the image data are read out from the mask memory 1243 and the object memory 1249 in the above, corrected by the corrector 1214, and input to the image synthesizer 1217. Corrector 12
At 14, the input pixel value p is corrected by the correction formula f1 (x) according to the following formula, and the corrected pixel value P
And output.

【0148】 P=f1(p) …(2a) また、スキャン位置が対象復号器1204の対象画像デ
ータを合成する位置に到達したら、対象復号器1204
内のマスクメモリ1243と対象メモリ1249からマ
スク情報と画像データを読み出し、補正器1215で補
正を行い、画像合成器1217に入力する。補正器12
15では入力された画素値pに対して補正式f2(x)に
よる補正を次式にしたがって行い、補正された画素値P
を求め、出力する。
P = f1 (p) (2a) When the scan position reaches the position where the target image data of the target decoder 1204 is synthesized, the target decoder 1204
The mask information and the image data are read out from the mask memory 1243 and the object memory 1249, corrected by the corrector 1215, and input to the image synthesizer 1217. Corrector 12
In step 15, the input pixel value p is corrected by the correction formula f2 (x) according to the following formula, and the corrected pixel value P
And output.

【0149】 P=f2(p) …(3a) 画像合成器1217は、マスク情報が対象復号器120
3の対象画像データを示している場合は補正器1214
からの画素値を、マスク情報が対象復号器1204の対
象画像データを示している場合は補正器1215からの
画素値を、これらのいずれにもあたらない場合は補正器
1216からの画素値を出力することで、画像の合成を
行い、端子1218から符号化器1113に出力する。
図9に、背景1050と人1051とを補正して得られ
た画像である背景1160と人1061と、人1052
を補正して得られた画像である人1062と、人105
3を補正して得られた画像である人1063とを合成し
た様子を示す。符号化器113は出力された画像をMP
EG−1で符号化し、送信器114を介して通信網11
5に送出される。
P = f 2 (p) (3a) The image synthesizer 1217 outputs the mask information to the target decoder 120.
In the case of indicating the target image data of No. 3, the corrector 1214
, And outputs the pixel value from the corrector 1215 when the mask information indicates the target image data of the target decoder 1204, and outputs the pixel value from the corrector 1216 when none of these values is met. Then, the images are synthesized and output from the terminal 1218 to the encoder 1113.
FIG. 9 shows a background 1160, a person 1061, and a person 1052, which are images obtained by correcting the background 1050 and the person 1051.
1062, which is an image obtained by correcting
3 shows a state in which an image obtained by correcting 3 is combined with a person 1063 which is an image obtained. The encoder 113 converts the output image to MP
Encoded by EG-1 and transmitted to the communication network 11 via the transmitter 114
5 is sent.

【0150】上記動作において、補正値算出器1213
の補正式算出アルゴリズムは下記に従って動作する。
In the above operation, the correction value calculator 1213
Operates according to the following.

【0151】まず、対象復号器1203からのコントラ
スト補正用画像情報1222における最大値Max1、
最小値Min1、平均値E1、分散R1を求める。
First, the maximum value Max1, Max1 in the contrast correction image information 1222 from the target decoder 1203,
A minimum value Min1, an average value E1, and a variance R1 are obtained.

【0152】次に、対象復号器1204からのコントラ
スト補正用画像情報1223における最大値Max2、
最小値Min2、平均値E2、分散R2を求める。
Next, the maximum value Max2 in the contrast correction image information 1223 from the target decoder 1204,
The minimum value Min2, the average value E2, and the variance R2 are obtained.

【0153】次に、復号器1205からのコントラスト
補正用画像情報1224における最大値Max3、最小
値Min3、平均値E3、分散R3を求める。
Next, the maximum value Max3, the minimum value Min3, the average value E3, and the variance R3 in the contrast correction image information 1224 from the decoder 1205 are obtained.

【0154】そして、コントラスト補正用画像情報12
22、1223、1224のうち、最大値が255かつ
最小値が0であるものが多くとも1つである場合最大値
をMax、最小をMinとすると、f1(x),f2(x),
f3(x)とを次のように定める。
Then, the image information 12 for contrast correction is obtained.
22, 1223, and 1224, when the maximum value is 255 and the minimum value is 0 at most, if the maximum value is Max and the minimum value is Min, f 1 (x), f 2 (x),
f3 (x) is determined as follows.

【0155】 f1(x)=[{α(Max−Max1)+Max1}−{β(Min−Min1)+Min1}] /(Max1−Min1)×(x−Min1) +{α(Max−Max1)+Max1} …(4a) f2(x)=[{α(Max−Max2)+Max2}−{β(Min−Min2)+Min2}] /(Max2−Min2)×(x−Min2) +{α(Max−Max2)+Max2} …(5a) f3(x)=[{α(Max−Max3)+Max3}−{β(Min−Min3)+Min3}] /(Max3−Min3)×(x−Min3) +{α(Max−Max3)+Max3} …(6a) 但し、αならびにβは重み付け変数、もしくは重み付け
関数である。
F1 (x) = [{α (Max−Max1) + Max1} − {β (Min−Min1) + Min1}] / (Max1−Min1) × (x−Min1) + {α (Max−Max1) + Max1 }… (4a) f2 (x) = [{α (Max−Max2) + Max2} − {β (Min−Min2) + Min2}] / (Max2−Min2) × (x−Min2) + {α (Max−Max2) ) + Max2} (5a) f3 (x) = [{α (Max−Max3) + Max3} − {β (Min−Min3) + Min3}] / (Max3−Min3) × (x−Min3) + {α (Max) −Max3) + Max3} (6a) where α and β are weighting variables or weighting functions.

【0156】さもなくば、コントラスト補正用画像情報
1222、1223、1224のうち、最大値が255
かつ最小値が255であるものが2つである場合例え
ば、最大値が255でなくあるいは最小値が0でないも
のがコントラスト補正用画像情報1222とすると、f
1(x)、f2(x)、f3(x)とを次のように定める。
Otherwise, the maximum value of the contrast correction image information 1222, 1223, and 1224 is 255.
If the minimum value is 255 and the minimum value is 255. For example, if the maximum value is not 255 or the minimum value is not 0, the contrast correction image information 1222 is obtained.
1 (x), f2 (x) and f3 (x) are determined as follows.

【0157】 f1(x)=[{α(255−Max1)+Max1}−{β(0−Min1)+Min1}] /(Max1−Min1)×(x−Min1) +{α(255−Max1)+Max1} …(7a) f2(x)とf3(x)とは、分散の差|R2−R3|が小さく
なるような関数を定める。定め方の一例として、次のよ
うな3接点からなる3次スプラインを用いた例を挙げ
る。
F1 (x) = [{α (255−Max1) + Max1} − {β (0−Min1) + Min1}] / (Max1−Min1) × (x−Min1) + {α (255−Max1) + Max1 } (7a) f2 (x) and f3 (x) determine a function such that the variance difference | R2-R3 | As an example of the determination method, an example using a cubic spline including the following three contact points will be described.

【0158】例えば、R2>R3である場合、 f2(x)=x …(8a) f3(x)= f31(x);x≦E3 f32(x);x>E3 …(9a) 但し、f31(0)=0;f31(E3)=E3;f32(255)=
255;f32(E3)=E3;f(2)31(E3)=f(2)32(E
3);f(1)31(E3)=φ;f(1)32(E3)=ψを満たすもの
とする。
For example, when R2> R3, f2 (x) = x (8a) f3 (x) = f31 (x); x ≦ E3 f32 (x); x> E3 (9a) where f31 (0) = 0; f31 (E3) = E3; f32 (255) =
255; f32 (E3) = E3; f (2) 31 (E3) = f (2) 32 (E
3); f (1) 31 (E3) = φ; f (1) 32 (E3) = ψ.

【0159】また、α,β,φならびにψは重み付け変
数、もしくは重み付け関数である。
Further, α, β, φ and ψ are weighting variables or weighting functions.

【0160】さもなくば、f2(x)とf2(x)とf3(x)
とは、分散の差|R1−R2|、|R1−R3|、|R2−
R3|が小さくなるような関数を定める。
Otherwise, f2 (x), f2 (x) and f3 (x)
Means the difference | R1-R2 |, | R1-R3 |, | R2-
A function is determined so that R3 | is small.

【0161】定め方の一例として、次のような3接点か
らなる3次スプラインを用いた例を挙げる。
As an example of the determination method, an example using a cubic spline having the following three contact points will be described.

【0162】例えば、R1>R2>R3である場合、 f1(x)=x …(10a) f2(x)= f21(x);x≦E2 f22(x);x>E2 …(11a) f3(x)= f31(x);x≦E3 f32(x);x>E3 …(12a) 但し、f21(0)=0;f21(E2)=E2;f22(255)=
255;f22(E2)=E2;f(2)21(E2)=f(2)22(E
2);f(1)21(E3)=φ2;f(1)22(E2)=ψ2ならびにf
31(0)=0;f31(E3)=E3;f32(255)=255;
f32(E3)=E3;f(2)31(E3)=f(2)32(E3);f(1)3
1(E3)=φ3;f(1)32(E3)=ψ3を満たすものとする。
For example, when R1>R2> R3, f1 (x) = x (10a) f2 (x) = f21 (x); x ≦ E2 f22 (x); x> E2 (11a) f3 (x) = f31 (x); x ≦ E3 f32 (x); x> E3 (12a) where f21 (0) = 0; f21 (E2) = E2; f22 (255) =
255; f22 (E2) = E2; f (2) 21 (E2) = f (2) 22 (E
2); f (1) 21 (E3) = φ2; f (1) 22 (E2) = ψ2 and f
31 (0) = 0; f31 (E3) = E3; f32 (255) = 255;
f32 (E3) = E3; f (2) 31 (E3) = f (2) 32 (E3); f (1) 3
1 (E3) = φ3; f (1) 32 (E3) = ψ3.

【0163】また、φ2,ψ2,φ3ならびにψ3は重み付
け変数、もしくは重み付け関数である。
Φ2, ψ2, φ3 and ψ3 are weighting variables or weighting functions.

【0164】以上説明したように、実施形態3によれ
ば、背景画像と対象画像を分離し、それぞれについて符
号化したものを合成する際にそれぞれの画像データの特
徴量を抽出し、合成する対象画像の画素値を補正するこ
とで違和感のない画像合成が行えるとともに、ブロック
単位での直流成分を補正値算出に用いることで高速な処
理が可能になる。
As described above, according to the third embodiment, when the background image and the target image are separated, and when the coded images are combined, the feature amount of each image data is extracted and the object to be combined is extracted. By correcting the pixel values of the image, it is possible to perform image synthesis without a sense of incongruity, and it is possible to perform high-speed processing by using a DC component in block units for calculating a correction value.

【0165】尚、実施形態3においては、対象の符号化
にMPEG−4を、それ以外の符号化にMPEG−1を
用いて説明をおこなったが、これに限定されず、これら
と同様の機能を果たすものであればなんでもかまわな
い。
In the third embodiment, MPEG-4 is used for the target encoding and MPEG-1 is used for the other encoding. However, the present invention is not limited to this. It does not matter anything that fulfills.

【0166】また、メモリ構成はこれに限定されず、ラ
インメモリ等で処理を行ってももちろんかまわないし、
その他の構成であってもよい。
The memory configuration is not limited to this, and it goes without saying that processing may be performed by a line memory or the like.
Other configurations may be used.

【0167】また、各構成要素の一部または全部をCP
U等で動作するソフトウェアによって実現させてももち
ろんかまわない。 <実施形態4>実施形態4は、実施形態3における対象
復号器1203、1204、復号器1205ならびに補
正値算出器1213を変更したものである。そこで、実
施形態3と重複する部分については割愛し、変更部につ
いてのみ説明する。
Further, a part or all of the constituent elements may be replaced by a CP.
Of course, it may be realized by software operating on U or the like. Fourth Embodiment A fourth embodiment is a modification of the third embodiment in which the target decoders 1203 and 1204, the decoder 1205, and the correction value calculator 1213 are changed. Therefore, portions that are the same as those in the third embodiment are omitted, and only the changed portion will be described.

【0168】動画像送信システムは実施形態1と同様に
図1の構成を用いる。また、動画像編集装置112の詳
細構成は、実施形態3と同様に図13の構成を用いる。
The moving image transmission system uses the configuration shown in FIG. 1 as in the first embodiment. The detailed configuration of the moving image editing apparatus 112 uses the configuration shown in FIG. 13 as in the third embodiment.

【0169】次に、実施形態4の対象復号器1203、
1204の詳細構成について、図16を用いて説明す
る。尚、図16では、対象復号器1203の詳細構成と
して説明し、同様の構成を有する対象復号器1204の
詳細構成については、ここでは省略する。
Next, the object decoder 1203 of the fourth embodiment,
The detailed configuration of 1204 will be described with reference to FIG. In FIG. 16, the detailed configuration of the target decoder 1203 is described, and the detailed configuration of the target decoder 1204 having the same configuration is omitted here.

【0170】図16は本発明の実施形態4の対象復号器
の詳細構成を示すブロック図である。
FIG. 16 is a block diagram showing a detailed configuration of a target decoder according to Embodiment 4 of the present invention.

【0171】1219は端子であり、受信器110から
の符号化データが入力される。1302は分離器であ
り、符号化データからマスク情報の符号化データと対象
画像の領域の画像データの符号化データを分離する。1
303はマスク情報を復号するマスク復号器である。1
304はマスク情報を格納するマスクメモリである。マ
スクメモリ1304内のマスク情報は、端子1207よ
り出力される。1305は対象画像の領域の符号化デー
タを格納する符号メモリである。1306は対象画像の
領域の画像データを復号する復号器である。1307は
逆量子化器である。1308は高速逆DCT変換器であ
る。尚、高速逆DCT変換器1308の詳細構成は図1
1と同様に構成される。1309は加算器である。13
10、1311、1312は再生した対象画像の領域を
格納する対象メモリである。1313は動き補償器であ
る。対象メモリ1310内の画像データは、端子120
6より出力される。
Reference numeral 1219 denotes a terminal to which encoded data from the receiver 110 is input. Reference numeral 1302 denotes a separator, which separates the encoded data of the mask information and the encoded data of the image data of the target image area from the encoded data. 1
Reference numeral 303 denotes a mask decoder that decodes mask information. 1
Reference numeral 304 denotes a mask memory for storing mask information. The mask information in the mask memory 1304 is output from a terminal 1207. Reference numeral 1305 denotes a code memory for storing the encoded data of the area of the target image. Reference numeral 1306 denotes a decoder for decoding the image data of the area of the target image. 1307 is an inverse quantizer. Reference numeral 1308 denotes a high-speed inverse DCT converter. The detailed configuration of the high-speed inverse DCT converter 1308 is shown in FIG.
1 is configured. 1309 is an adder. 13
Reference numerals 10, 1311 and 1312 are target memories for storing the areas of the reproduced target images. 1313 is a motion compensator. The image data in the target memory 1310 is
6 is output.

【0172】上記構成において、入力された符号データ
からマスク情報の符号化データと対象画像の領域の符号
化データを分離器1302で分離し、それぞれマスク復
号器1303と符号メモリ1305に入力する。マスク
復号器1303は符号化データを復号してマスク情報を
再生し、マスクメモリ1304に格納する。符号メモリ
1305に格納された符号化データは復号器1306で
復号され、量子化された値を再生する。この値は,逆量
子化器1307で逆量子化され、高速逆DCT変換器1
308でラディックスバタフライ演算により逆DCT変
換される。I−フレームの時は動き補償器1313は動
作せず、0を出力する。P−フレームとB−フレームの
時は動き補償器1313は動作し、動き補償予測値を出
力する。加算器1309は高速逆DCT変換器1308
の出力と動き補償器1313の出力を加算し、対象メモ
リ1310および対象メモリ1311または1312に
格納する。一方、高速逆DCT変換器1308からは、
n段目のラディックスバタフライ演算結果がマルチプレ
クサされ、コントラスト補正用画像情報として端子12
08から出力される。
In the above configuration, the coded data of the mask information and the coded data of the area of the target image are separated from the input coded data by the separator 1302 and input to the mask decoder 1303 and the code memory 1305, respectively. The mask decoder 1303 decodes the encoded data to reproduce the mask information, and stores it in the mask memory 1304. The coded data stored in the code memory 1305 is decoded by the decoder 1306, and the quantized value is reproduced. This value is inversely quantized by an inverse quantizer 1307, and the high-speed inverse DCT converter 1
In step 308, inverse DCT is performed by Radix butterfly operation. In the case of an I-frame, the motion compensator 1313 does not operate and outputs 0. At the time of a P-frame and a B-frame, the motion compensator 1313 operates and outputs a motion compensation prediction value. The adder 1309 is a high-speed inverse DCT converter 1308
And the output of the motion compensator 1313 are added and stored in the target memory 1310 and the target memory 1311 or 1312. On the other hand, from the high-speed inverse DCT converter 1308,
The n-th stage Radix butterfly operation result is multiplexed, and is output to terminal 12 as image information for contrast correction.
08 is output.

【0173】次に、実施形態4の復号器1205の詳細
構成について、図17を用いて説明する。
Next, the detailed configuration of the decoder 1205 of the fourth embodiment will be described with reference to FIG.

【0174】図17は本発明の実施形態4の復号器の詳
細構成を示すブロック図である。
FIG. 17 is a block diagram showing a detailed configuration of the decoder according to the fourth embodiment of the present invention.

【0175】1221は端子であり、記憶装置116か
らの符号化データが入力される。1322は符号化デー
タを格納する符号メモリである。1323は符号化デー
タを復号する復号器である。1324は逆量子化器であ
る。1325は高速逆DCT変換器である。尚、高速逆
DCT変換器1325の詳細構成は図11と同様に構成
される。1326は加算器である。1327、132
8、1329は符号化データを復号して得られた画像デ
ータを格納するメモリである。1330は動き補償器で
ある。メモリ1327内の画像データは、端子1225
より出力される。
Reference numeral 1221 denotes a terminal to which encoded data from the storage device 116 is input. Reference numeral 1322 denotes a code memory for storing encoded data. Reference numeral 1323 denotes a decoder that decodes encoded data. Reference numeral 1324 denotes an inverse quantizer. Reference numeral 1325 denotes a high-speed inverse DCT converter. The detailed configuration of the high-speed inverse DCT converter 1325 is the same as that shown in FIG. 1326 is an adder. 1327, 132
Reference numerals 8 and 1329 denote memories for storing image data obtained by decoding encoded data. 1330 is a motion compensator. The image data in the memory 1327 is
Output.

【0176】上記構成において、符号メモリ1322に
格納された符号化データは復号器1323で復号され、
量子化された値を再生する。この値は,逆量子化器13
24で逆量子化され、高速逆DCT変換器1325で逆
DCT変換される。I−フレームの時は動き補償器13
30は動作せず、0を出力する。P−フレームとB−フ
レームの時は動き補償器1330は動作し、動き補償予
測値を出力する。加算器1326は逆DCT変換器13
25の出力と動き補償器1330の出力を加算し、メモ
リ1327およびメモリ1328または1329に格納
する。一方、高速逆DCT変換器1325からは、直流
成分かもしくはn段目のラディックスバタフライ演算結
果がマルチプレクサされ、コントラスト補正用画像情報
として端子1212から出力される。
In the above configuration, the encoded data stored in the code memory 1322 is decoded by the decoder 1323,
Regenerate the quantized value. This value is calculated by the inverse quantizer 13
24, and is inversely quantized by a high-speed inverse DCT transformer 1325. Motion compensator 13 for I-frame
30 does not operate and outputs 0. At the time of a P-frame and a B-frame, the motion compensator 1330 operates and outputs a motion compensation prediction value. The adder 1326 is an inverse DCT converter 13
25 and the output of the motion compensator 1330 are added together and stored in the memory 1327 and the memory 1328 or 1329. On the other hand, from the high-speed inverse DCT converter 1325, the DC component or the n-th stage Radix butterfly operation result is multiplexed and output from the terminal 1212 as image information for contrast correction.

【0177】以上説明した動画像編集装置112の構成
において、1フレーム分の復号が終了し、対象符号器1
203内の対象メモリ1310と、対象符号器1204
内の対象メモリ1310と、符号器1205内のメモリ
1327に画像データが格納されたら、補正値算出器1
213は、コントラスト補正用画像情報を用いて後述の
補正式算出アルゴリズムから、以下の補正式を求める。
つまり、補正器1214用補正式f1(x)と、補正器1
215用補正式f2(x)と、補正器1216用補正式f3
(x)とを求める。
In the structure of the moving picture editing apparatus 112 described above, decoding of one frame is completed.
The target memory 1310 in the target 203 and the target encoder 1204
When the image data is stored in the target memory 1310 in the memory and the memory 1327 in the encoder 1205, the correction value calculator 1
213 obtains the following correction formula from the correction formula calculation algorithm described below using the image information for contrast correction.
That is, the correction formula f1 (x) for the corrector 1214 and the corrector 1
The correction formula f2 (x) for the 215 and the correction formula f3 for the corrector 1216
(x).

【0178】その後、復号器1205内のメモリ132
7から走査線の画素順にラスタスキャンにて画素値を読
み出し、補正器1216で補正を行い、画像合成器12
17に入力する。補正器1216では入力された画素値
pに対して補正式f3(x)による補正を次式にしたがっ
て行い、補正された画素値Pを求め、出力する。
Thereafter, the memory 132 in the decoder 1205
7, the pixel values are read out by raster scan in the order of the pixels of the scanning line, corrected by the corrector 1216, and
Enter 17. The corrector 1216 corrects the input pixel value p by the correction formula f3 (x) according to the following formula, obtains a corrected pixel value P, and outputs the corrected pixel value P.

【0179】 P=f3(p) …(13a) 一方、スキャン位置が対象復号器1203の対象画像デ
ータを合成する位置に到達したら、対象復号器1203
内のマスクメモリ1304と対象メモリ1310からマ
スク情報と画像データを読み出し、補正器1214で補
正を行い、画像合成器217に入力する。補正器121
5では、入力された画素値pに対して補正式f1(x)に
よる補正を次式にしたがって行い、補正された画素値P
を求め、出力する。
P = f3 (p) (13a) On the other hand, when the scan position reaches the position where the target image data of the target decoder 1203 is synthesized, the target decoder 1203
The mask information and the image data are read out from the mask memory 1304 and the target memory 1310, corrected by the corrector 1214, and input to the image synthesizer 217. Corrector 121
In step 5, the input pixel value p is corrected by the correction formula f1 (x) according to the following formula, and the corrected pixel value P
And output.

【0180】 P=f1(p) …(14a) また、スキャン位置が対象復号器1204の対象画像デ
ータを合成する位置に到達したら、対象復号器1204
内のマスクメモリ1304と対象メモリ1310からマ
スク情報と画像データを読み出し、補正器1215で補
正を行い、画像合成器1217に入力する。補正器12
14では、入力された画素値pに対して補正式f2(x)
による補正を次式にしたがって行い、補正された画素値
Pを求め、出力する。
P = f1 (p) (14a) When the scan position reaches the position where the target image data of the target decoder 1204 is synthesized, the target decoder 1204
The mask information and the image data are read out from the mask memory 1304 and the target memory 1310, corrected by the corrector 1215, and input to the image synthesizer 1217. Corrector 12
At 14, the correction equation f2 (x) is applied to the input pixel value p.
Is performed according to the following equation, and a corrected pixel value P is obtained and output.

【0181】 P=f2(p) …(15a) 画像合成器1217は、マスク情報が対象復号器120
3の対象画像データを示している場合は補正器1214
からの画素値を、マスク情報が対象復号器1204の対
象画像データを示している場合は補正器1215からの
画素値を、これらのいずれにもあたらない場合は補正器
1216からの画素値を出力することで画像の合成を行
い、端子1218から符号化器113に出力する。背景
1050と人1051とを補正して得られた画像である
背景1060と人1061と、人1052を補正して得
られた画像である人1062と、人1053を補正して
得られた画像である人1063とを合成した様子は、実
施形態3で用いた図9とほぼ同じである。但し、厳密に
は実施形態3におけるそれとはコントラストが異なる。
符号化器113は出力された画像をMPEG−1で符号
化し、送信器114を介して通信網115に送出され
る。
P = f 2 (p) (15a) The image synthesizer 1217 outputs the mask information to the target decoder 120.
In the case of indicating the target image data of No. 3, the corrector 1214
, And outputs the pixel value from the corrector 1215 when the mask information indicates the target image data of the target decoder 1204, and outputs the pixel value from the corrector 1216 when none of these values is met. By doing so, the images are synthesized and output from the terminal 1218 to the encoder 113. A background 1060 and a person 1061, which are images obtained by correcting the background 1050 and the person 1051, a person 1062 which is an image obtained by correcting the person 1052, and an image obtained by correcting the person 1053. The state of combining with a certain person 1063 is almost the same as FIG. 9 used in the third embodiment. However, the contrast is strictly different from that in the third embodiment.
The encoder 113 encodes the output image using MPEG-1, and sends the image to the communication network 115 via the transmitter 114.

【0182】上記動作において、補正値算出器1213
のアルゴリズムは下記に従って動作する。
In the above operation, the correction value calculator 1213
Works according to the following.

【0183】まず、対象復号器1203からのコントラ
スト補正用画像情報1222における最大値Max1、
最小値Min1、平均値E1、分散R1を求める。
First, the maximum value Max1 in the contrast correction image information 1222 from the target decoder 1203,
A minimum value Min1, an average value E1, and a variance R1 are obtained.

【0184】次に、対象復号器1204からのコントラ
スト補正用画像情報1223における最大値Max2、
最小値Min2、平均値E2、分散R2を求める。
Next, the maximum value Max2 in the contrast correction image information 1223 from the target decoder 1204,
The minimum value Min2, the average value E2, and the variance R2 are obtained.

【0185】次に、対象復号器1205からのコントラ
スト補正用画像情報1224における最大値Max3、
最小値Min3、平均値E3、分散R3を求める。
Next, the maximum value Max3 in the contrast correction image information 1224 from the target decoder 1205,
The minimum value Min3, the average value E3, and the variance R3 are obtained.

【0186】コントラスト補正用画像情報1222、1
223、1224のうち、最大値が255かつ最小値が
0であるものが多くとも1つである場合最大値をMa
x、最小をMinとすると、/f1(x)、/f2(x)、/f3
(x)とを次のように定める。
Image information for contrast correction 1222, 1
When the maximum value is 255 and the minimum value is 0 among at most one of 223 and 1224, the maximum value is Ma
x, the minimum is Min, / f1 (x), / f2 (x), / f3
(x) is defined as follows.

【0187】 /f1(x)=[{α(Max−Max1)+Max1}−{β(Min−Min1)+Min1}] /(Max1−Min1)×(x−Min1) +{α(Max−Max1)+Max1} …(16a) /f2(x)=[{α(Max−Max2)+Max2}−{β(Min−Min2)+Min2}] /(Max2−Min2)×(x−Min2) +{α(Max−Max2)+Max2} …(17a) /f3(x)=[{α(Max−Max3)+Max3}−{β(Min−Min3)+Min3}] /(Max3−Min3)×(x−Min3) +{α(Max−Max3)+Max3} …(18a) 但し、αならびにβは重み付け変数、もしくは重み付け
関数である。
/ F1 (x) = [{α (Max−Max1) + Max1} − {β (Min−Min1) + Min1}] / (Max1−Min1) × (x−Min1) + {α (Max−Max1) + Max1} (16a) / f2 (x) = [{α (Max−Max2) + Max2} − {β (Min−Min2) + Min2}] / (Max2−Min2) × (x−Min2) + {α (Max −Max2) + Max2} (17a) / f3 (x) = [{α (Max−Max3) + Max3} − {β (Min−Min3) + Min3}] / (Max3−Min3) × (x−Min3) + { α (Max−Max3) + Max3} (18a) where α and β are weighting variables or weighting functions.

【0188】さもなくば、コントラスト補正用画像情報
1222、1223、1224のうち、最大値が255
かつ最小値が255であるものが2つである場合、例え
ば、最大値が255でなくあるいは最小値が0でないも
のがコントラスト補正用画像情報1222とすると、/
f1(x)、/f2(x)、/f3(x)とを次のように定める。
Otherwise, of the contrast correction image information 1222, 1223, and 1224, the maximum value is 255.
In addition, when the minimum value is 255 and the minimum value is 255, for example, if the maximum value is not 255 or the minimum value is not 0, the image information 1222 for contrast correction is obtained.
f1 (x), / f2 (x), and / f3 (x) are determined as follows.

【0189】 /f1(x)=[{α(255−Max1)+Max1}−{β(0−Min1)+Min1}] /(Max1−Min1)×(x−Min1) +{α(255−Max1)+Max1} …(19a) /f2(x)と/f3(x)とは、分散の差|R2−R3|が小さ
くなるような関数を定める。定め方の一例として、次の
ような3接点からなる3次スプラインを用いた例を挙げ
る。
/ F1 (x) = [{α (255−Max1) + Max1} − {β (0−Min1) + Min1}] / (Max1−Min1) × (x−Min1) + {α (255−Max1) + Max1} (19a) / f2 (x) and / f3 (x) determine a function such that the variance difference | R2-R3 | is small. As an example of the determination method, an example using a cubic spline including the following three contact points will be described.

【0190】例えば、R2>R3である場合、 /f2(x)=x …(20a) /f3(x)=/f31(x);x≦E3 /f32(x);x>E3 …(21a) 但し、/f31(0)=0;/f31(E3)=E3;/f32(25
5)=255;/f32(E3)=E3;/f(2)31(E3)=/f
(2)32(E3);/f(1)31(E3)=φ;/f(1)32(E3)=ψを
満たすものとする。
For example, when R2> R3, / f2 (x) = x (20a) / f3 (x) = / f31 (x); x ≦ E3 / f32 (x); x> E3 (21a However, / f31 (0) = 0; / f31 (E3) = E3; / f32 (25
5) = 255; / f32 (E3) = E3; / f (2) 31 (E3) = / f
(2) 32 (E3); / f (1) 31 (E3) = φ; / f (1) 32 (E3) = ψ.

【0191】また、α,β,φならびにψは重み付け変
数、もしくは重み付け関数である。
Α, β, φ and ψ are weighting variables or weighting functions.

【0192】さもなくば、/f2(x)と/f2(x)と/f3
(x)とは、分散の差|R1−R2|、|R1−R3|、|R
2−R3|が小さくなるような関数を定める。
Otherwise, / f2 (x), / f2 (x) and / f3
(x) is the variance difference | R1-R2 |, | R1-R3 |, | R
A function that reduces 2-R3 | is determined.

【0193】定め方の一例として、次のような3接点か
らなる3次スプラインを用いた例を挙げる。
As an example of the determination method, an example using a cubic spline having the following three contact points will be described.

【0194】例えば、R1>R2>R3である場合、 /f1(x)=x …(22a) /f2(x)=/f21(x);x≦E2 /f22(x);x>E2 …(23a) /f3(x)=/f31(x);x≦E3 /f32(x);x>E3 …(24a) 但し、/f21(0)=0;/f21(E2)=E2;f22(255)
=255;f22(E2)=E2;/f(2)21(E2)=/f(2)22
(E2);/f(1)21(E3)=φ2;/f(1)22(E2)=ψ2なら
びに/f31(0)=0;/f31(E3)=E3;/f32(255)
=255;/f32(E3)=E3;/f(2)31(E3)=f(2)32
(E3);/f(1)31(E3)=φ3;/f(1)32(E3)=ψ3を満
たすものとする。
For example, when R1>R2> R3, / f1 (x) = x (22a) / f2 (x) = / f21 (x); x ≦ E2 / f22 (x); x> E2 ... (23a) / f3 (x) = / f31 (x); x ≦ E3 / f32 (x); x> E3 (24a) where / f21 (0) = 0; / f21 (E2) = E2; f22 (255)
= 255; f22 (E2) = E2; / f (2) 21 (E2) = / f (2) 22
(E2); / f (1) 21 (E3) = φ2; / f (1) 22 (E2) = ψ2 and / f31 (0) = 0; / f31 (E3) = E3; / f32 (255)
= 255; / f32 (E3) = E3; / f (2) 31 (E3) = f (2) 32
(E3); / f (1) 31 (E3) = φ3; / f (1) 32 (E3) = ψ3.

【0195】また、φ2,ψ2,φ3ならびにψ3は重み付
け変数、もしくは重み付け関数である。
Φ2, ψ2, φ3 and ψ3 are weighting variables or weighting functions.

【0196】1フレーム前の補正式を基に、現在の補正
式を次のように定める。
The current correction equation is determined as follows based on the correction equation one frame before.

【0197】 f1(x)=f1(x)+γ(/f1(x)−f1(x)) …(25a) f2(x)=f2(x)+γ(/f2(x)−f2(x)) …(26a) f3(x)=f3(x)+γ(/f3(x)−f3(x)) …(27a) ここで、γは、補正式の時変化追従用重み変数である。F1 (x) = f1 (x) + γ (/ f1 (x) −f1 (x)) (25a) f2 (x) = f2 (x) + γ (/ f2 (x) −f2 (x) ) (26a) f3 (x) = f3 (x) + γ (/ f3 (x) −f3 (x)) (27a) Here, γ is a time-variation tracking weight variable of the correction formula.

【0198】以上説明したように、実施形態4によれ
ば、背景画像と対象画像を分離し、それぞれについて符
号化したものを合成する際にそれぞれの画像データの特
徴量を抽出し、合成する対象画像の画素値を補正するこ
とで違和感のない画像合成が行える。また、対象画像の
サイズと演算速度との兼ね合いにおいて、直流成分、も
しくは2×2あるいは4×4の低周波成分の逆DCT結
果、もしくは8×8の逆DCT結果を選択的に、補正値
算出に用いることで柔軟で精度の高い処理が可能にな
る。さらに、コントラスト補正処理を時変化にゆるやか
に追従させることで、変化の激しい画像に対しても違和
感の無い画像合成が行える。
As described above, according to the fourth embodiment, when the background image and the target image are separated, and when the coded images are combined, the feature amount of each image data is extracted and the object to be combined is extracted. By correcting the pixel values of the image, it is possible to perform image synthesis without a sense of discomfort. Further, in consideration of the size of the target image and the calculation speed, a correction value is calculated by selectively selecting a DC component or an inverse DCT result of a 2 × 2 or 4 × 4 low frequency component or an 8 × 8 inverse DCT result. In this case, flexible and highly accurate processing can be performed. Furthermore, by causing the contrast correction processing to slowly follow the time change, it is possible to perform image synthesis without discomfort even for an image that changes rapidly.

【0199】尚、実施形態4においては、対象の符号化
にMPEG−4を、それ以外の符号化にMPEG−1を
用いて説明をおこなったが、これに限定されず、これら
と同様の機能を果たすものであればなんでもかまわな
い。
In the fourth embodiment, the description has been made using MPEG-4 for the target encoding and MPEG-1 for the other encoding. However, the present invention is not limited to this. It does not matter anything that fulfills.

【0200】また、メモリ構成はこれに限定されず、ラ
インメモリ等で処理を行ってももちろんかまわないし、
その他の構成であってもよい。
Further, the memory configuration is not limited to this, and it goes without saying that processing may be performed by a line memory or the like.
Other configurations may be used.

【0201】また、各構成要素の一部または全部をCP
U等で動作するソフトウェアによって実現させてももち
ろんかまわない。
A part or all of the constituent elements may be replaced by a CP.
Of course, it may be realized by software operating on U or the like.

【0202】最後に、上記実施形態1〜実施形態4で実
行される処理の処理フローについて、図18を用いて説
明する。
Finally, the processing flow of the processing executed in the first to fourth embodiments will be described with reference to FIG.

【0203】図18は本発明で実行される処理の処理フ
ローを示すフローチャートである。まず、ステップS1
01で、入力された符号化データを、背景画像の符号化
データと対象画像の符号化データに分離する。ステップ
S102で、背景画像の符号化データの背景特徴を抽出
する。ステップS103で、対象画像の符号化データの
対象特徴を抽出する。ステップS104で、背景画像の
符号化データを復号して背景再生画像を生成する。ステ
ップS105で、対象画像の符号化データを復号して対
象再生画像を生成する。ステップS106で、抽出した
背景特徴と対象特徴に基づいて、対象再生画像を補正す
る。この補正の詳細については、各実施形態で説明した
通りである。ステップS107で、背景再生画像と補正
された対象再生画像を合成する。
FIG. 18 is a flowchart showing the processing flow of the processing executed in the present invention. First, step S1
At 01, the input encoded data is separated into encoded data of a background image and encoded data of a target image. In step S102, a background feature of the encoded data of the background image is extracted. In step S103, a target feature of the encoded data of the target image is extracted. In step S104, the encoded data of the background image is decoded to generate a background reproduced image. In step S105, the coded data of the target image is decoded to generate a target reproduced image. In step S106, the target playback image is corrected based on the extracted background features and target features. The details of this correction are as described in each embodiment. In step S107, the background reproduced image and the corrected target reproduced image are combined.

【0204】尚、本発明は、複数の機器(例えばホスト
コンピュータ、インタフェース機器、リーダ、プリンタ
など)から構成されるシステムに適用しても、一つの機
器からなる装置(例えば、複写機、ファクシミリ装置な
ど)に適用してもよい。
Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), a device including one device (for example, a copying machine, a facsimile machine) Etc.).

【0205】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
Further, an object of the present invention is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and to provide a computer (or CPU) of the system or apparatus.
And MPU) read and execute the program code stored in the storage medium.

【0206】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0207】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク、ハードディス
ク、光ディスク、光磁気ディスク、CD−ROM、CD
−R、磁気テープ、不揮発性のメモリカード、ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0208】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program codes, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instructions of the program codes. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0209】更に、記憶媒体から読出されたプログラム
コードが、コンピュータに挿入された機能拡張ボードや
コンピュータに接続された機能拡張ユニットに備わるメ
モリに書込まれた後、そのプログラムコードの指示に基
づき、その機能拡張ボードや機能拡張ユニットに備わる
CPUなどが実際の処理の一部または全部を行い、その
処理によって前述した実施形態の機能が実現される場合
も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0210】[0210]

【発明の効果】以上説明したように、本発明によれば、
複数の画像の合成を容易に実行でき、かつ画品位が良好
な合成画像を生成することができる画像処理装置及びそ
の方法、コンピュータ可読メモリを提供できる。
As described above, according to the present invention,
It is possible to provide an image processing apparatus, a method thereof, and a computer-readable memory capable of easily executing the synthesis of a plurality of images and generating a synthesized image with good image quality.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態1の動画像送信システムの構
成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a moving image transmission system according to a first embodiment of the present invention.

【図2】本発明の実施形態1の対象画像の領域の一例を
示す図である。
FIG. 2 is a diagram illustrating an example of a region of a target image according to the first embodiment of the present invention.

【図3】本発明の実施形態1のマスク情報の一例を示す
図である。
FIG. 3 is a diagram illustrating an example of mask information according to the first embodiment of the present invention.

【図4】本発明の実施形態1の符号化画像の一例を示す
図である。
FIG. 4 is a diagram illustrating an example of an encoded image according to the first embodiment of the present invention.

【図5】本発明の実施形態1の対象符号化部の詳細構成
を示すブロック図である。
FIG. 5 is a block diagram illustrating a detailed configuration of a target encoding unit according to the first embodiment of the present invention.

【図6】本発明の実施形態1の動画像編集装置の詳細構
成を示すブロック図である。
FIG. 6 is a block diagram illustrating a detailed configuration of the moving image editing apparatus according to the first embodiment of the present invention.

【図7】本発明の実施形態1の対象復号器の詳細構成を
示すブロック図である。
FIG. 7 is a block diagram illustrating a detailed configuration of a target decoder according to the first embodiment of the present invention.

【図8】本発明の実施形態1の復号器の詳細構成を示す
ブロック図である。
FIG. 8 is a block diagram illustrating a detailed configuration of a decoder according to the first embodiment of the present invention.

【図9】本発明の実施形態1の対象画像の合成の一例を
示す図である。
FIG. 9 is a diagram illustrating an example of combining target images according to the first embodiment of the present invention.

【図10】本発明の実施形態2の対象復号器の詳細構成
を示すブロック図である。
FIG. 10 is a block diagram illustrating a detailed configuration of a target decoder according to Embodiment 2 of the present invention.

【図11】本発明の実施形態2の高速逆DCT変換器の
詳細構成を示すブロック図である。
FIG. 11 is a block diagram illustrating a detailed configuration of a high-speed inverse DCT converter according to a second embodiment of the present invention.

【図12】本発明の実施形態2の復号器の詳細構成を示
すブロック図である。
FIG. 12 is a block diagram illustrating a detailed configuration of a decoder according to Embodiment 2 of the present invention.

【図13】本発明の実施形態3の動画像編集装置の詳細
構成を示すブロック図である。
FIG. 13 is a block diagram illustrating a detailed configuration of a moving image editing device according to a third embodiment of the present invention.

【図14】本発明の実施形態3の対象復号器の詳細構成
を示すブロック図である。
FIG. 14 is a block diagram illustrating a detailed configuration of a target decoder according to Embodiment 3 of the present invention.

【図15】本発明の実施形態3の復号器の詳細構成を示
すブロック図である。
FIG. 15 is a block diagram illustrating a detailed configuration of a decoder according to Embodiment 3 of the present invention.

【図16】本発明の実施形態4の対象復号器の詳細構成
を示すブロック図である。
FIG. 16 is a block diagram illustrating a detailed configuration of a target decoder according to Embodiment 4 of the present invention.

【図17】本発明の実施形態4の復号器の詳細構成を示
すブロック図である。
FIG. 17 is a block diagram illustrating a detailed configuration of a decoder according to Embodiment 4 of the present invention.

【図18】本発明で実行される処理の処理フローを示す
フローチャートである。
FIG. 18 is a flowchart showing a processing flow of processing executed in the present invention.

【図19】従来の符号化システムの構成を示す図であ
る。
FIG. 19 is a diagram illustrating a configuration of a conventional encoding system.

【図20】本発明の実施形態1の画像の一例を示す図で
ある。
FIG. 20 is a diagram illustrating an example of an image according to the first embodiment of the present invention.

【図21】本発明の実施形態1の画像の一例を示す図で
ある。
FIG. 21 is a diagram illustrating an example of an image according to the first embodiment of the present invention.

【図22】本発明の実施形態1の符号化データの一例を
示す図である。
FIG. 22 is a diagram illustrating an example of encoded data according to the first embodiment of the present invention.

【符号の説明】[Explanation of symbols]

101、102 TVカメラ 103 対象抽出器 104、113 符号化器 105 対象符号化部 106、107 送信器 108、109 通信回線 110、111 受信器 112 動画像編集装置 115 通信網 116 記憶装置 121、122 端子 123 マスクメモリ 124 マスク符号器 125、138、139 対象メモリ 126 平均値算出器 127 ブロック形成器 128 フレームモード設定器 129 差分器 130 DCT変換器 131 量子化器 132 符号器 133 合成器 135 逆量子化器 136 逆DCT変換器 137 加算器 140 動き補償器 200、201、202、206、207、208、2
09、210、211、212、218、225 端子 203、204 対象復号器 205 復号器 213 補正値算出器 214、215、216 補正器 217 画像合成器 241 分離器 242 マスク復号器 243 マスクメモリ 244、301 符号メモリ 245、302 復号器 246、247、303、304 デマルチプレクサ 248、255、262、305、312、319 逆
量子化器 249、256、263、306、313、320 逆
DCT変換器 250、257、264、307、314、321 加
算器 251、252、253、258、259、260、2
65、266、267対象メモリ 254、261、268、311、318、325 動
き補償器 308、309、310、315、316、317、3
22、323、324メモリ 270、271、272、327、328、329 バ
ッファ 269、273、326、330 色信号変換器 401 分離器 402 マスク復号器 403 マスクメモリ 404、452 符号メモリ 405、453 復号器 406、407、454、455 デマルチプレクサ 408、415、422、456、463、470 逆
量子化器 409、416、423、457、464、471 高
速逆DCT変換器 410、417、424、458、465、472 加
算器 411、412、413、418、419、420、4
25、426、427対象メモリ 414、421、428、462、469、476 動
き補償器 459、460、461、466、467、468、4
73、474、475メモリ 430、431、432、478、479、480 バ
ッファ 429、433、477、481 色信号変換器 1200、1201、1202、1206、1207、
1208、1209、1210、1211、1212、
1218、1225 端子 1203、1204 対象復号器 1205 復号器 1213 補正値算出器 1214、1215、1216 補正器 1217 画像合成器 1241、1302 分離器 1242、1303 マスク復号器 1243、1304 マスクメモリ 1244、1261、1305、1322 符号メモリ 1245、1262、1306、1323 復号器 1246、1263、1307、1324 逆量子化器 1247、1264 逆DCT変換器 1248、1265、1309、1326 加算器 1249、1250、1251、1310、1311、
1312 対象メモリ 1252、1269、1313、1330 動き補償器 1266、1267、1268、1327、1328、
1329 メモリ 1308、1325 高速逆DCT変換器
101, 102 TV camera 103 Target extractor 104, 113 Encoder 105 Target encoder 106, 107 Transmitter 108, 109 Communication line 110, 111 Receiver 112 Video editing device 115 Communication network 116 Storage device 121, 122 Terminal 123 mask memory 124 mask encoder 125, 138, 139 target memory 126 average value calculator 127 block former 128 frame mode setter 129 differentiator 130 DCT converter 131 quantizer 132 encoder 133 synthesizer 135 inverse quantizer 136 Inverse DCT converter 137 Adder 140 Motion compensator 200, 201, 202, 206, 207, 208, 2
09, 210, 211, 212, 218, 225 Terminal 203, 204 Object decoder 205 Decoder 213 Correction value calculator 214, 215, 216 Corrector 217 Image synthesizer 241 Separator 242 Mask decoder 243 Mask memory 244, 301 Code memories 245, 302 Decoders 246, 247, 303, 304 Demultiplexers 248, 255, 262, 305, 312, 319 Inverse quantizers 249, 256, 263, 306, 313, 320 Inverse DCT transformers 250, 257 264, 307, 314, 321 Adders 251, 252, 253, 258, 259, 260, 2
65, 266, 267 Target memory 254, 261, 268, 311, 318, 325 Motion compensator 308, 309, 310, 315, 316, 317, 3
22, 323, 324 memory 270, 271, 272, 327, 328, 329 Buffer 269, 273, 326, 330 Color signal converter 401 Separator 402 Mask decoder 403 Mask memory 404, 452 Code memory 405, 453 Decoder 406 , 407, 454, 455 Demultiplexer 408, 415, 422, 456, 463, 470 Dequantizer 409, 416, 423, 457, 464, 471 High-speed inverse DCT converter 410, 417, 424, 458, 465, 472 Adders 411, 412, 413, 418, 419, 420, 4
25, 426, 427 Target memory 414, 421, 428, 462, 469, 476 Motion compensator 459, 460, 461, 466, 467, 468, 4
73, 474, 475 memories 430, 431, 432, 478, 479, 480 buffers 429, 433, 477, 481 color signal converters 1200, 1201, 1202, 1206, 1207,
1208, 1209, 1210, 1211, 1212,
1218, 1225 Terminals 1203, 1204 Target decoder 1205 Decoder 1213 Correction value calculator 1214, 1215, 1216 Corrector 1217 Image synthesizer 1241, 1302 Separator 1242, 1303 Mask decoder 1243, 1304 Mask memory 1244, 1261, 1305 , 1322 Code memory 1245, 1262, 1306, 1323 Decoder 1246, 1263, 1307, 1324 Inverse quantizer 1247, 1264 Inverse DCT transformer 1248, 1265, 1309, 1326 Adder 1249, 1250, 1251, 1310, 1311,
1312 Target memory 1252, 1269, 1313, 1330 Motion compensator 1266, 1267, 1268, 1327, 1328,
1329 Memory 1308, 1325 High-speed inverse DCT converter

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C059 KK37 MA00 MA05 MA09 MA23 MB12 MB22 MC23 PP05 PP06 PP07 PP15 PP16 PP26 PP27 PP29 RC19 SS07 SS20 SS26 TA01 TA44 TB07 TC02 TC04 TC24 TD01 TD02 TD03 TD04 TD10 TD12 UA05 UA25 UA31 UA39 5C066 AA13 CA09 CA17 EC06 ED04 EE01 GA01 GA02 GA05 GA22 GA32 HA01 JA02 KE09 KE16 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C059 KK37 MA00 MA05 MA09 MA23 MB12 MB22 MC23 PP05 PP06 PP07 PP15 PP16 PP26 PP27 PP29 RC19 SS07 SS20 SS26 TA01 TA44 TB07 TC02 TC04 TC24 TD01 TD02 TD03 TD04 TD10 TD12 UA05 UA25 066 AA13 CA09 CA17 EC06 ED04 EE01 GA01 GA02 GA05 GA22 GA32 HA01 JA02 KE09 KE16

Claims (35)

【特許請求の範囲】[Claims] 【請求項1】 複数の画像を合成する画像処理装置であ
って、 少なくとも1つの背景画像の符号化データから背景特徴
を抽出する背景特徴抽出手段と、 少なくとも1つの対象画像の符号化データから画像情報
の統計的情報を含む対象特徴を抽出する対象特徴抽出手
段と、 前記背景画像の符号化データを復号して背景再生画像を
生成する背景復号手段と、 前記対象画像の符号化データを復号する対象再生画像を
生成する対象復号手段と、 前記背景特徴と前記対象特徴に基づいて、前記対象再生
画像を補正する補正手段と、 前記背景再生画像と前記補正手段で補正された対象再生
画像を合成する合成手段とを備えることを特徴とする画
像処理装置。
1. An image processing apparatus for synthesizing a plurality of images, comprising: a background feature extracting unit configured to extract a background feature from encoded data of at least one background image; and an image processing unit configured to extract an image from encoded data of at least one target image. A target feature extracting unit that extracts a target feature including statistical information of information; a background decoding unit that decodes encoded data of the background image to generate a background reproduction image; and decodes encoded data of the target image. A target decoding unit for generating a target reproduction image; a correction unit for correcting the target reproduction image based on the background feature and the target characteristic; and combining the background reproduction image and the target reproduction image corrected by the correction unit. An image processing apparatus comprising:
【請求項2】 前記対象特徴抽出手段は、前記画像情報
の統計的情報に基づくヒストグラムを算出する算出手段
を備え、 前記補正手段は、前記ヒストグラムに基づいて、前記対
象画像の補正方法を決定することを特徴とする請求項1
に記載の画像処理装置。
2. The target feature extraction unit includes a calculation unit that calculates a histogram based on statistical information of the image information, and the correction unit determines a correction method of the target image based on the histogram. 2. The method according to claim 1, wherein
An image processing apparatus according to claim 1.
【請求項3】 前記対象特徴抽出手段は、前記符号化デ
ータに含まれるブロック画像の直流情報を前記画像情報
の統計的情報として抽出することを特徴とする請求項1
に記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the target feature extracting unit extracts DC information of a block image included in the encoded data as statistical information of the image information.
An image processing apparatus according to claim 1.
【請求項4】 前記対象特徴抽出手段は、前記符号化デ
ータに含まれるブロック画像の低周波情報を前記画像情
報の統計的情報として抽出することを特徹とする請求項
1に記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the target feature extracting unit extracts low-frequency information of a block image included in the encoded data as statistical information of the image information. apparatus.
【請求項5】 前記背景復号手段及び前記対象復号手段
のいずれか一方あるいはその両方は、 前記符号化データから量子化データを復号する復号手段
と前記量子化データから周波数域データを算出する逆量
子化手段と前記周波数域データから空間域データを算出
する高速逆離散コサイン変換手段とを備え、 前記高速逆離散コサイン変換手段は、任意の段数のラデ
ィックスバタフライ演算結果を出力する出力手段を備
え、 前記対象特徴抽出手段は、前記任意の段数のラディック
スバタフライ演算結果を画像情報の低周波情報として抽
出することを特徴とする請求項4に記載の画像処理装
置。
5. One or both of said background decoding means and said target decoding means are decoding means for decoding quantized data from said encoded data, and inverse quantization for calculating frequency band data from said quantized data. And a high-speed inverse discrete cosine transform unit for calculating spatial domain data from the frequency domain data.The high-speed inverse discrete cosine transform unit includes an output unit that outputs a result of a Radix butterfly operation of an arbitrary number of stages. The image processing apparatus according to claim 4, wherein the target feature extracting unit extracts the Radix butterfly operation result of the arbitrary number of stages as low-frequency information of image information.
【請求項6】 前記補正手段は、当該補正手段が入力す
る信号と出力する信号の入出力関係を時系列に従ってゆ
るやかに変化させる時系列適応手段とを備えることを特
徴とする請求項1に記載の画像処理装置。
6. The apparatus according to claim 1, wherein the correction unit includes a time series adaptation unit that gradually changes an input / output relationship between a signal input to the correction unit and an output signal according to a time series. Image processing device.
【請求項7】 前記対象特徴抽出手段は、前記画像情報
の統計的情報として、前記符号化データに含まれるブロ
ック画像の直流情報あるいは低周波情報から画素値の最
大値と最小値を抽出することを特徴とする請求項1に記
載の画像処理装置。
7. The target feature extracting means extracts a maximum value and a minimum value of a pixel value from DC information or low frequency information of a block image included in the encoded data as statistical information of the image information. The image processing apparatus according to claim 1, wherein:
【請求項8】 前記対象特徴抽出手段は、前記画像情報
の統計的情報として、前記符号化データに含まれるブロ
ック画像の直流情報あるいは低周波情報から画素値の分
散と平均値を抽出することを特徴とする請求項1に記載
の画像処理装置。
8. The target feature extracting means extracts, as statistical information of the image information, a variance and an average value of pixel values from DC information or low frequency information of a block image included in the encoded data. The image processing apparatus according to claim 1, wherein:
【請求項9】 前記補正手段は、前記対象画像に線形変
換を施すことを特徴とする請求項1に記載の画像処理装
置。
9. The image processing apparatus according to claim 1, wherein the correction unit performs a linear transformation on the target image.
【請求項10】 前記補正手段は、前記対象画像に区分
的スプライン変換を施すことを特徴とする請求項1に記
載の画像処理装置。
10. The apparatus according to claim 1, wherein the correction unit performs a piecewise spline transformation on the target image.
【請求項11】 前記補正手段は、前記対象特徴抽出手
段により抽出された対象特徴から有意性のある色の偏り
の有無を検出する検出手段と、 前記検出手段の検出結果から色の偏りを補正する色補正
手段とを備えることを特徴とする請求項1乃至請求項4
のいずれかに記載の画像処理装置。
11. A detecting means for detecting presence or absence of a significant color bias from the target feature extracted by the target feature extracting means, and correcting the color bias based on a detection result of the detecting means. 5. A color correction means comprising:
The image processing device according to any one of the above.
【請求項12】 前記検出手段は、抽出された対象特徴
に含まれる統計的情報より各色信号間における平均値の
差分絶対値との分散の差分絶対値とがある閾値以下であ
るという条件を満たすか否かを検出し、更に、前記条件
が満たされた場合においては、前記統計的情報に基づく
ヒストグラムの特定領域において有意性のある色の偏り
の有無を検出することを特徴とする請求項11に記載の
画像処理装置。
12. The detecting means satisfies a condition that, based on statistical information included in the extracted target feature, a difference absolute value of a variance from a difference absolute value of an average value between color signals is equal to or less than a threshold. Detecting whether or not there is significant color bias in a specific area of the histogram based on the statistical information when the condition is satisfied. An image processing apparatus according to claim 1.
【請求項13】 前記色補正手段は、各色信号の最大値
が等しくなるよう線形に補正することを特徴とする請求
項11に記載の画像処理装置。
13. The image processing apparatus according to claim 11, wherein the color correction unit performs linear correction so that the maximum value of each color signal is equal.
【請求項14】 前記色補正手段は、青色信号について
は補正を行わないことを特徴とする請求項11に記載の
画像処理装置。
14. The image processing apparatus according to claim 11, wherein the color correction unit does not correct a blue signal.
【請求項15】 前記補正手段は、前記対象特徴抽出手
段により抽出された対象特徴と前記背景特徴抽出手段に
より抽出された背景特徴とから有意性のあるコントラス
トの差異を検出する検出手段と、 前記検出手段の検出結果から、コントラストを補正する
コントラスト補正手段とを備えることを特徴とする請求
項1乃至請求項4のいずれかに記載の画像処理装置。
15. The detecting means for detecting a significant contrast difference from the target feature extracted by the target feature extracting means and the background feature extracted by the background feature extracting means, The image processing apparatus according to claim 1, further comprising: a contrast correction unit configured to correct a contrast based on a detection result of the detection unit.
【請求項16】 前記検出手段は、前記対象特徴と前記
背景特徴とから得られる画素値の最大値と最小値をそれ
ぞれ抽出し、 前記コントラスト補正手段は、前記最大値あるいは前記
最小値が異なる対象画像と背景画像とにおいては、それ
ぞれ画素値の最大値の差分絶対値と画素値の最小値の差
分絶対値とが減少するように補正を行うことを特徴とす
る請求項15に記載の画像処理装置。
16. The detecting means extracts a maximum value and a minimum value of a pixel value obtained from the target feature and the background feature, respectively, and the contrast correcting means extracts an object having a different maximum value or the minimum value. 16. The image processing according to claim 15, wherein the correction is performed so that the difference absolute value between the maximum pixel value and the minimum pixel value is reduced between the image and the background image. apparatus.
【請求項17】 前記検出手段は、前記対象特徴と前記
背景特徴とから得られる画素値の最大値と最小値とをそ
れぞれ抽出し、 前記コントラスト補正手段は、前記最大値あるいは前記
最小値とがほぼ等しい対象画像と背景画像とにおいて
は、それぞれ分散の差分絶対値が減少するように補正を
行うことを特徴とする請求項15に記載の画像処理装
置。
17. The detection unit extracts a maximum value and a minimum value of a pixel value obtained from the target feature and the background feature, respectively, and the contrast correction unit determines whether the maximum value or the minimum value is 16. The image processing apparatus according to claim 15, wherein the correction is performed such that the difference absolute value of the variance is reduced between the substantially equal target image and the background image.
【請求項18】 複数の画像を合成する画像処理方法で
あって、 少なくとも1つの背景画像の符号化データから背景特徴
を抽出する背景特徴抽出工程と、 少なくとも1つの対象画像の符号化データから画像情報
の統計的情報を含む対象特徴を抽出する対象特徴抽出工
程と、 前記背景画像の符号化データを復号して背景再生画像を
生成する背景復号工程と、 前記対象画像の符号化データを復号する対象再生画像を
生成する対象復号工程と、 前記背景特徴と前記対象特徴に基づいて、前記対象再生
画像を補正する補正工程と、 前記背景再生画像と前記補正工程で補正された対象再生
画像を合成する合成工程とを備えることを特徴とする画
像処理方法。
18. An image processing method for synthesizing a plurality of images, comprising: extracting a background feature from encoded data of at least one background image; and extracting an image from encoded data of at least one target image. A target feature extraction step of extracting a target feature including statistical information of information; a background decoding step of decoding encoded data of the background image to generate a background reproduction image; and decoding encoded data of the target image. A target decoding step of generating a target playback image; a correction step of correcting the target playback image based on the background feature and the target feature; and synthesizing the background playback image and the target playback image corrected in the correction step. An image processing method comprising:
【請求項19】 前記対象特徴抽出工程は、前記画像情
報の統計的情報に基づくヒストグラムを算出する算出工
程を備え、 前記補正工程は、前記ヒストグラムに基づいて、前記対
象画像の補正方法を決定することを特徴とする請求項1
8に記載の画像処理方法。
19. The target feature extracting step includes a calculating step of calculating a histogram based on the statistical information of the image information, and the correcting step determines a correction method of the target image based on the histogram. 2. The method according to claim 1, wherein
9. The image processing method according to 8.
【請求項20】 前記対象特徴抽出工程は、前記符号化
データに含まれるブロック画像の直流情報を前記画像情
報の統計的情報として抽出することを特徴とする請求項
18に記載の画像処理方法。
20. The image processing method according to claim 18, wherein the target feature extracting step extracts DC information of a block image included in the encoded data as statistical information of the image information.
【請求項21】 前記対象特徴抽出工程は、前記符号化
データに含まれるブロック画像の低周波情報を前記画像
情報の統計的情報として抽出することを特徹とする請求
項18に記載の画像処理方法。
21. The image processing apparatus according to claim 18, wherein the target feature extracting step extracts low-frequency information of a block image included in the encoded data as statistical information of the image information. Method.
【請求項22】 前記背景復号工程及び前記対象復号工
程のいずれか一方あるいはその両方は、 前記符号化データから量子化データを復号する復号工程
と前記量子化データから周波数域データを算出する逆量
子化工程と前記周波数域データから空間域データを算出
する高速逆離散コサイン変換工程とを備え、 前記高速逆離散コサイン変換工程は、任意の段数のラデ
ィックスバタフライ演算結果を出力する出力工程を備
え、 前記対象特徴抽出工程は、前記任意の段数のラディック
スバタフライ演算結果を画像情報の低周波情報として抽
出することを特徴とする請求項21に記載の画像処理方
法。
22. One or both of the background decoding step and the target decoding step include: a decoding step of decoding quantized data from the encoded data; and an inverse quantization step of calculating frequency band data from the quantized data. A high-speed inverse discrete cosine transform step of calculating spatial domain data from the frequency domain data, and the high-speed inverse discrete cosine transform step includes an output step of outputting a Radix butterfly operation result of an arbitrary number of stages, 22. The image processing method according to claim 21, wherein the target feature extracting step extracts the Radix butterfly operation result of the arbitrary number of stages as low-frequency information of image information.
【請求項23】 前記補正工程は、当該補正工程が入力
する信号と出力する信号の入出力関係を時系列に従って
ゆるやかに変化させる時系列適応工程とを備えることを
特徴とする請求項18に記載の画像処理方法。
23. The correction method according to claim 18, wherein the correction step includes a time-series adaptation step of gradually changing an input / output relationship between a signal input to the correction step and an output signal according to a time series. Image processing method.
【請求項24】 前記対象特徴抽出工程は、前記画像情
報の統計的情報として、前記符号化データに含まれるブ
ロック画像の直流情報あるいは低周波情報から画素値の
最大値と最小値を抽出することを特徴とする請求項18
に記載の画像処理方法。
24. The target feature extracting step includes extracting a maximum value and a minimum value of a pixel value from DC information or low frequency information of a block image included in the encoded data as statistical information of the image information. 19. The method according to claim 18, wherein
The image processing method according to 1.
【請求項25】 前記対象特徴抽出工程は、前記画像情
報の統計的情報として、前記符号化データに含まれるブ
ロック画像の直流情報あるいは低周波情報から画素値の
分散と平均値を抽出することを特徴とする請求項18に
記載の画像処理方法。
25. The target feature extracting step includes extracting, as statistical information of the image information, a variance and an average value of pixel values from DC information or low frequency information of a block image included in the encoded data. 19. The image processing method according to claim 18, wherein:
【請求項26】 前記補正工程は、前記対象画像に線形
変換を施すことを特徴とする請求項18に記載の画像処
理方法。
26. The image processing method according to claim 18, wherein the correcting step performs a linear transformation on the target image.
【請求項27】 前記補正工程は、前記対象画像に区分
的スプライン変換を施すことを特徴とする請求項18に
記載の画像処理方法。
27. The image processing method according to claim 18, wherein the correcting step performs a piecewise spline transformation on the target image.
【請求項28】 前記補正工程は、前記対象特徴抽出工
程により抽出された対象特徴から有意性のある色の偏り
の有無を検出する検出工程と、 前記検出工程の検出結果から色の偏りを補正する色補正
工程とを備えることを特徴とする請求項18乃至請求項
21のいずれかに記載の画像処理方法。
28. The correcting step includes detecting a presence or absence of a significant color bias from the target feature extracted in the target feature extracting step, and correcting the color bias from the detection result of the detecting step. 22. The image processing method according to claim 18, further comprising:
【請求項29】 前記検出工程は、抽出された対象特徴
に含まれる統計的情報より各色信号間における平均値の
差分絶対値との分散の差分絶対値とがある閾値以下であ
るという条件を満たすか否かを検出し、更に、前記条件
が満たされた場合においては、前記統計的情報に基づく
ヒストグラムの特定領域において有意性のある色の偏り
の有無を検出することを特徴とする請求項28に記載の
画像処理方法。
29. The detecting step satisfies a condition that, based on statistical information included in the extracted target feature, a difference absolute value of a variance from a difference absolute value of an average value between color signals is equal to or less than a threshold. 29. The method according to claim 28, further comprising: detecting whether or not there is a significant color bias in a specific area of the histogram based on the statistical information when the condition is satisfied. The image processing method according to 1.
【請求項30】 前記色補正工程は、各色信号の最大値
が等しくなるよう線形に補正することを特徴とする請求
項28に記載の画像処理方法。
30. The image processing method according to claim 28, wherein in the color correction step, linear correction is performed so that the maximum value of each color signal becomes equal.
【請求項31】 前記色補正工程は、青色信号について
は補正を行わないことを特徴とする請求項28に記載の
画像処理方法。
31. The image processing method according to claim 28, wherein in the color correction step, no correction is performed on a blue signal.
【請求項32】 前記補正工程は、前記対象特徴抽出工
程により抽出された対象特徴と前記背景特徴抽出工程に
より抽出された背景特徴とから有意性のあるコントラス
トの差異を検出する検出工程と、 前記検出工程の検出結果から、コントラストを補正する
コントラスト補正工程とを備えることを特徴とする請求
項18乃至請求項21のいずれかに記載の画像処理方
法。
32. The detecting step, comprising: detecting a significant contrast difference between the target feature extracted in the target feature extracting step and the background feature extracted in the background feature extracting step. 22. The image processing method according to claim 18, further comprising: a contrast correction step of correcting contrast based on a detection result of the detection step.
【請求項33】 前記検出工程は、前記対象特徴と前記
背景特徴とから得られる画素値の最大値と最小値をそれ
ぞれ抽出し、 前記コントラスト補正工程は、前記最大値あるいは前記
最小値が異なる対象画像と背景画像とにおいては、それ
ぞれ画素値の最大値の差分絶対値と画素値の最小値の差
分絶対値とが減少するように補正を行うことを特徴とす
る請求項32に記載の画像処理方法。
33. The detection step extracts a maximum value and a minimum value of a pixel value obtained from the target feature and the background feature, respectively. The contrast correction step includes a step of extracting a target having a different maximum value or the minimum value. 33. The image processing according to claim 32, wherein the image and the background image are corrected such that the absolute value of the difference between the maximum pixel value and the absolute value of the minimum pixel value decreases. Method.
【請求項34】 前記検出工程は、前記対象特徴と前記
背景特徴とから得られる画素値の最大値と最小値とをそ
れぞれ抽出し、 前記コントラスト補正工程は、前記最大値あるいは前記
最小値とがほぼ等しい対象画像と背景画像とにおいて
は、それぞれ分散の差分絶対値が減少するように補正を
行うことを特徴とする請求項32に記載の画像処理方
法。
34. The detecting step extracts a maximum value and a minimum value of pixel values obtained from the target feature and the background feature, respectively, and the contrast correction step determines whether the maximum value or the minimum value is 33. The image processing method according to claim 32, wherein the correction is performed so that the difference absolute value of the variance is reduced between the substantially equal target image and the background image.
【請求項35】 複数の画像を合成する画像処理のプロ
グラムコードが格納されたコンピュータ可読メモリであ
って、 少なくとも1つの背景画像の符号化データから背景特徴
を抽出する背景特徴抽出工程のプログラムコードと、 少なくとも1つの対象画像の符号化データから画像情報
の統計的情報を含む対象特徴を抽出する対象特徴抽出工
程のプログラムコードと、 前記背景画像の符号化データを復号して背景再生画像を
生成する背景復号工程のプログラムコードと、 前記対象画像の符号化データを復号する対象再生画像を
生成する対象復号工程のプログラムコードと、 前記背景特徴と前記対象特徴に基づいて、前記対象再生
画像を補正する補正工程のプログラムコードと、 前記背景再生画像と前記補正工程で補正された対象再生
画像を合成する合成工程のプログラムコードとを備える
ことを特徴とするコンピュータ可読メモリ。
35. A computer readable memory storing a program code for image processing for synthesizing a plurality of images, the program code for a background feature extracting step of extracting a background feature from encoded data of at least one background image; A program code for a target feature extraction step of extracting a target feature including statistical information of image information from encoded data of at least one target image; and decoding the encoded data of the background image to generate a background reproduced image. A program code for a background decoding step, a program code for a target decoding step for generating a target playback image for decoding the encoded data of the target image, and correcting the target playback image based on the background feature and the target feature. The program code of the correction step, the background reproduced image and the target reproduced image corrected in the correction step are combined. Computer-readable memory comprising: a program code for a synthesis process to be performed.
JP37224198A 1998-05-29 1998-12-28 Image processing unit, its method and computer-readable memory Withdrawn JP2000197044A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP37224198A JP2000197044A (en) 1998-12-28 1998-12-28 Image processing unit, its method and computer-readable memory
US09/320,663 US6546052B1 (en) 1998-05-29 1999-05-27 Image processing apparatus and method, and computer-readable memory

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37224198A JP2000197044A (en) 1998-12-28 1998-12-28 Image processing unit, its method and computer-readable memory

Publications (1)

Publication Number Publication Date
JP2000197044A true JP2000197044A (en) 2000-07-14

Family

ID=18500107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37224198A Withdrawn JP2000197044A (en) 1998-05-29 1998-12-28 Image processing unit, its method and computer-readable memory

Country Status (1)

Country Link
JP (1) JP2000197044A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1927952A1 (en) * 2006-11-29 2008-06-04 Ricoh Company, Ltd. Data processing apparatus and image registration method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1927952A1 (en) * 2006-11-29 2008-06-04 Ricoh Company, Ltd. Data processing apparatus and image registration method
US8538149B2 (en) 2006-11-29 2013-09-17 Ricoh Company, Ltd. Data processing apparatus, image registration method, and program product

Similar Documents

Publication Publication Date Title
JP4223571B2 (en) Image coding method and apparatus
JP4014263B2 (en) Video signal conversion apparatus and video signal conversion method
US6587509B1 (en) Reducing undesirable effects of an emphasis processing operation performed on a moving image by adding a noise signal to a decoded uncompressed signal
JP3268306B2 (en) Image coding method
JP3133517B2 (en) Image region detecting device, image encoding device using the image detecting device
JP2009004920A (en) Image encoder and image encoding method
JP2001211455A (en) Image coding method and image coder
US6546052B1 (en) Image processing apparatus and method, and computer-readable memory
US7095448B2 (en) Image processing circuit and method for modifying a pixel value
JP3707118B2 (en) Image coding method and apparatus
WO2019003676A1 (en) Image processing device, image processing method, and program
JP2006203365A (en) Video signal encoding device and video signal encoding method
JP2004241869A (en) Watermark embedding and image compressing section
US20230421760A1 (en) Image coding method based on chroma deblocking parameter information for monochrome color format in video or image coding system
JP2000197044A (en) Image processing unit, its method and computer-readable memory
JPH05183872A (en) Device and method for moving picture encoding
JPH08307860A (en) Scene re-encoder
JP4320509B2 (en) Video re-encoding apparatus and method
JP3703088B2 (en) Extended image encoding device and extended image decoding device
JP2000050259A (en) Dynamic image coder and dynamic image decoder
JP4700992B2 (en) Image processing device
JPH0918873A (en) Image encoding method and device and image recording medium
JP4636159B2 (en) Encoding apparatus and method
JPH07222048A (en) Image pickup device
JP3384910B2 (en) Imaging device and image reproducing device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060307