JP2002204453A - Image object content generator and padding device - Google Patents

Image object content generator and padding device

Info

Publication number
JP2002204453A
JP2002204453A JP2001327460A JP2001327460A JP2002204453A JP 2002204453 A JP2002204453 A JP 2002204453A JP 2001327460 A JP2001327460 A JP 2001327460A JP 2001327460 A JP2001327460 A JP 2001327460A JP 2002204453 A JP2002204453 A JP 2002204453A
Authority
JP
Japan
Prior art keywords
pixel
value
padding
unit
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001327460A
Other languages
Japanese (ja)
Inventor
Daisaku Kitagawa
大作 北川
Yoshiyuki Mochizuki
義幸 望月
Tadashi Kobayashi
忠司 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001327460A priority Critical patent/JP2002204453A/en
Publication of JP2002204453A publication Critical patent/JP2002204453A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image object content generator that conducts padding processing with high quality. SOLUTION: The image object content generator 10 is provided with a key generation section 11 that generates a key that is a reference for distinguishing an object pixel from a background pixel for each pixel from a received video signal, a frame size changing section 12 that changes a frame sizes of the video signal, a low frequency component passing section 13 that eliminates a high frequency component of the video signal processed by the frame size changing section 12, a pixel compensation section 14 that uses a Low Pass Extrapolation padding algorithm to apply padding processing to the video signal processed by the low frequency component passing section 13 and a pixel selection section 15 that selects the video signal processed by the low frequency component passing section 13 or the video signal processed by the pixel compensation section 14.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像オブジェクト
素材生成装置に関し、特に画像オブジェクトの外側を埋
めるパディング処理に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image object material generating apparatus, and more particularly to a padding process for filling the outside of an image object.

【0002】[0002]

【従来の技術】従来の蓄積メディアやデジタル放送に好
適であることに加えて、近年進展の著しいモバイル端末
やインターネットなどに好適な画像圧縮方式として、M
PEG(Moving Picture Coding Experts Group)−4
が注目されている。MPEG−4は、映像を背景と人物
や建物などの構成要素(オブジェクト)とに分解し、そ
れぞれのオブジェクトを単位として圧縮伸長することを
一つの重要な特徴とするオブジェクトベースの画像符号
化方式である。この応用として、画面サイズの拡大縮小
のニーズがある。例えば、家庭用ビデオカメラで撮影し
た画像を、携帯電話機のような小さいサイズの液晶表示
パネルに表示させるような場合である。また、人物画像
などの画像素材データを任意のサイズで必要とするニー
ズも存在する。例えば、あらかじめ撮影された背景に、
別途ブルーバックなどで撮影された人物画像などを取り
込んで映像を合成するような場合である。
2. Description of the Related Art In addition to being suitable for conventional storage media and digital broadcasting, an image compression method suitable for mobile terminals and the Internet, etc., which has been remarkably developed in recent years,
PEG (Moving Picture Coding Experts Group) -4
Is attracting attention. MPEG-4 is an object-based image encoding system that has one important feature of decomposing a video into a background and constituent elements (objects) such as people and buildings, and compressing and expanding each object as a unit. is there. As this application, there is a need to enlarge and reduce the screen size. For example, there is a case where an image captured by a home video camera is displayed on a small-sized liquid crystal display panel such as a mobile phone. There is also a need to require image material data such as a person image in an arbitrary size. For example, on a background taken in advance,
This is a case in which a video image is synthesized by separately capturing a person image or the like shot with a blue background or the like.

【0003】図18(a)は、物体と背景とを含む画像
を矢印の方向に走査した場合において物体画素と背景画
素との境界を含むN×N画素(Nは正の整数)のブロッ
クの1つを示す図である。図18(b)は、図18
(a)に示されたブロック内の画像をx方向に走査した
ときの映像信号の画素値(例えば輝度値)の変化を示す
グラフである。ここで、横軸はx方向の位置を示し、縦
軸はその位置での画素値を示しており、物体画素と背景
画素との画素値は0≦Y≦255の範囲でグレースケー
ルを表すデジタル値として示している。CCD(Charge
Coupled Device)などを用いて実際に撮像された映像
の境界部分は、拡大すると図18(a)の右側に示すよ
うな画像になっており、物体の部分に背景の映像信号が
混ざったり、背景の部分に物体の映像信号が混ざったり
している。この結果、図18(a)に示すように物体と
背景とからなる静止画像を矢印の方向に走査していく
と、その映像信号は、物体内部(0≦x<x0)ではほ
ぼ一定値であるが、物体画素と背景画素との境界x0付
近では、図18(b)に示すような周波数の高い変化を
示し、やがて境界部分から離れるに従って徐々に一定値
に近づくという変化を示す。
FIG. 18A shows a block of N × N pixels (N is a positive integer) including a boundary between an object pixel and a background pixel when an image including an object and a background is scanned in the direction of an arrow. It is a figure showing one. FIG.
6A is a graph illustrating a change in a pixel value (for example, a luminance value) of a video signal when an image in the block illustrated in FIG. Here, the horizontal axis indicates the position in the x direction, the vertical axis indicates the pixel value at that position, and the pixel values of the object pixel and the background pixel are digital values representing a gray scale in the range of 0 ≦ Y ≦ 255. It is shown as a value. CCD (Charge
The boundary portion of the video actually captured by using a coupled device or the like becomes an image as shown on the right side of FIG. 18A when enlarged, and the background video signal is mixed with the object portion or the background is mixed. Is mixed with the video signal of the object. As a result, as shown in FIG. 18A, when a still image composed of an object and a background is scanned in the direction of the arrow, the video signal has a substantially constant value inside the object (0 ≦ x <x0). However, near the boundary x0 between the object pixel and the background pixel, a high frequency change as shown in FIG. 18B is shown, and the change gradually approaches a constant value as the distance from the boundary part increases.

【0004】MPEG−4においてオブジェクト単位で
の圧縮をする際に、フレームから切り出された映像ブロ
ックが図18(a)右側に示されたブロックのように物
体画素と背景画素とを含む場合、その映像信号は図18
(b)に示すような高周波成分を含んでいるので、形状
適応離散的コサイン変換(SA−DCT)に適さない。
このために、MPEG−4では形状適応離散的コサイン
変換を行う前に、映像信号の高周波成分を除去するため
のパディング処理を施す必要がある。パディング処理と
は、物体画素に隣接した背景画素に代替画素値を供給す
る(背景画素を代替画素値で埋める)ことによって高周
波部分を除去する処理である。
When a video block cut out from a frame includes object pixels and background pixels as in the block shown on the right side of FIG. The video signal is shown in FIG.
Since it contains high-frequency components as shown in (b), it is not suitable for shape adaptive discrete cosine transform (SA-DCT).
For this reason, in MPEG-4, it is necessary to perform a padding process for removing a high frequency component of a video signal before performing a shape adaptive discrete cosine transform. The padding process is a process of removing a high-frequency portion by supplying a substitute pixel value to a background pixel adjacent to the object pixel (filling the background pixel with the substitute pixel value).

【0005】パディング処理装置の従来例としては、例
えば特開平10−210470号公報に一例が開示され
ており、これについて図19に基づき、その処理を説明
する。
An example of a conventional padding processing apparatus is disclosed in, for example, Japanese Patent Application Laid-Open No. Hei 10-210470, and the processing will be described with reference to FIG.

【0006】図19は、特開平10−210470号公
報に開示された従来のパディング処理装置の構成を示す
ブロック図である。パディング処理装置は、境界ブロッ
ク検出部100、ブロック走査部210、ブロック補償
部220およびSA‐DCT部300を備える。境界ブ
ロック検出部100は、物体画素及び背景画素を含むN
×N画素(Nは正の整数)の同じ大きさの複数の映像ブ
ロックを走査して、映像ブロック内の同一の行または列
上で物体画素の間にはさまれて位置する背景画素(パデ
ィング画素)を検出する。ブロック走査部210は、物
体画素の画素値を用いて、代替画素値を計算する。ブロ
ック補償部220は、代替画素値をパディング画素に供
給して、パディングされた映像ブロックを生成する。こ
れにより、補償された物体領域は、物体画素の間にはさ
まれた背景画素であるパディング画素が代替画素値で埋
められることになり、その結果、境界部分の高周波成分
が除去される。このようにブロック補償部220におい
てパディング処理を行うことによって、SA‐DCT部
300は、物体画素と背景画素とを各々含んだ物体領域
及び背景領域の入力映像信号を、適正に形状適応離散的
コサイン変換することができる。
FIG. 19 is a block diagram showing a configuration of a conventional padding processing apparatus disclosed in Japanese Patent Application Laid-Open No. 10-210470. The padding processing device includes a boundary block detection unit 100, a block scanning unit 210, a block compensation unit 220, and an SA-DCT unit 300. The boundary block detection unit 100 calculates N including the object pixel and the background pixel.
A plurality of video blocks of the same size of × N pixels (N is a positive integer) are scanned, and a background pixel (padding) located between object pixels on the same row or column in the video block. Pixel). The block scanning unit 210 calculates a substitute pixel value using the pixel value of the object pixel. The block compensator 220 supplies a substitute pixel value to a padding pixel to generate a padded video block. As a result, in the compensated object region, padding pixels, which are background pixels sandwiched between the object pixels, are filled with the substitute pixel values, and as a result, high-frequency components at the boundary portions are removed. By performing the padding process in the block compensating unit 220 in this manner, the SA-DCT unit 300 appropriately converts the input video signals of the object region and the background region including the object pixel and the background pixel into a shape adaptive discrete cosine signal. Can be converted.

【0007】しかしながら、この従来のパディング処理
装置は、パディング画素の画素値を単純に代替画素値で
置換するだけなので、生成される画像の品質が劣化して
しまう可能性が大きい。そのために、例えば、入力画像
から切り出した素材データのサイズを所定サイズに変更
しようとした場合には、高品位画素データとして生成す
ることが困難となる。また、切り出されたオブジェクト
画像の品位を低下させることなくパディング処理を実現
しようとした場合、大きなメモリ容量を必要とし、回路
規模が大きくなったり、消費電力が大きくなったり、処
理速度が低下してしまったりするという問題もある。
However, in this conventional padding processing apparatus, since the pixel value of the padding pixel is simply replaced with the substitute pixel value, there is a great possibility that the quality of the generated image is deteriorated. For this reason, for example, when it is attempted to change the size of the material data cut out from the input image to a predetermined size, it is difficult to generate the high-quality pixel data. Also, if padding processing is to be realized without degrading the quality of the clipped object image, a large memory capacity is required, and the circuit scale increases, power consumption increases, and the processing speed decreases. There is also the problem of getting lost.

【0008】[0008]

【課題を解決するための手段】そこで、本発明は、上記
従来の問題点に鑑み、オブジェクト画像の品位を低下さ
せることなくパディング処理を行うことができるパディ
ング装置、及び、そのようなパディング処理によって品
質の高い画像オブジェクト素材を生成することができる
画像オブジェクト素材生成装置を提供することを第1の
目的とする。
SUMMARY OF THE INVENTION In view of the above problems, the present invention provides a padding apparatus capable of performing a padding process without deteriorating the quality of an object image, and a padding device using such a padding process. A first object is to provide an image object material generation device capable of generating a high quality image object material.

【0009】また、本発明の第2の目的は、小さな回路
規模で実現され、かつ、高速に処理することができるパ
ディング装置及び画像オブジェクト素材生成装置を提供
することである。
A second object of the present invention is to provide a padding device and an image object material generating device which can be realized with a small circuit scale and can perform high-speed processing.

【0010】上記第1の目的を達成するために、本発明
の画像オブジェクト素材生成装置は、入力された映像信
号から画素ごとに物体画素と背景画素とを区別する基準
となるキーを生成するキー生成手段と、前記映像信号の
フレームサイズを変更するフレームサイズ変更手段と、
前記フレームサイズ変更手段において処理された映像信
号の高周波成分を除去する低周波成分通過手段と、前記
低周波成分通過手段において処理された映像信号に、前
記キー生成手段で生成されたキーに基づいて、Low Pass
Extrapolationパディングアルゴリズムによるパディン
グ処理を行う画素補償手段と、前記低周波成分通過手段
において処理された映像信号と前記画素補償手段におい
て処理された映像信号とのいずれかを選択する画素選択
手段とを備えることを特徴とする。
In order to achieve the first object, an image object material generating apparatus according to the present invention comprises a key for generating a key serving as a reference for distinguishing an object pixel from a background pixel for each pixel from an input video signal. Generating means, frame size changing means for changing the frame size of the video signal,
A low-frequency component passing unit that removes a high-frequency component of the video signal processed by the frame size changing unit; and a video signal processed by the low-frequency component passing unit, based on a key generated by the key generation unit. , Low Pass
Pixel compensation means for performing padding processing by an Extrapolation padding algorithm, and pixel selection means for selecting any of a video signal processed by the low-frequency component passing means and a video signal processed by the pixel compensation means It is characterized by.

【0011】上記のように、画像オブジェクト素材生成
装置において、キー生成手段は、入力された映像信号か
ら画素ごとに物体画素と背景画素とを区別する基準とな
るキーを生成する。フレームサイズ変更手段は、前記映
像信号のフレームサイズを変更する。低周波成分通過手
段は、前記フレームサイズ変更手段において処理された
映像信号の高周波成分を除去する。画素補償手段は、前
記低周波成分通過手段において処理された映像信号に、
Low Pass Extrapolationパディングアルゴリズムを用い
てパディング処理を行う。画素選択手段は、前記低周波
成分通過手段において処理された映像信号と前記画素補
償手段において処理された映像信号とのいずれかを選択
する。
As described above, in the image object material generating apparatus, the key generating means generates a key as a reference for distinguishing an object pixel and a background pixel for each pixel from an input video signal. The frame size changing means changes a frame size of the video signal. The low frequency component passing means removes high frequency components of the video signal processed by the frame size changing means. The pixel compensating means includes a video signal processed by the low-frequency component passing means;
Performs padding using the Low Pass Extrapolation padding algorithm. The pixel selection unit selects one of a video signal processed by the low-frequency component passing unit and a video signal processed by the pixel compensation unit.

【0012】また、上記第2の目的を達成するために、
本発明の画像オブジェクト素材生成装置は、上記画像オ
ブジェクト素材生成装置において、上記画素補償手段が
さらに、順次入力される各画素の映像信号の値とキー値
とを保持するバッファメモリと、順次入力される各画素
のキー値に基づいて、前記物体画素の映像信号から代替
画素値を生成する代替画素値生成部と、順次入力される
各画素のキー値に基づいて、パディング画素の位置を示
す情報を保持するパディング画素位置保持部と、前記パ
ディング画素位置保持部を参照してパディング画素を特
定し、特定されたパディング画素に、前記代替画素値と
前記バッファメモリ内の映像信号の値とを用いてフィル
タリング処理するフィルタリング部とを備えることを特
徴とする。
In order to achieve the second object,
In the image object material generating apparatus according to the present invention, in the image object material generating apparatus, the pixel compensating means may further include a buffer memory for holding a video signal value and a key value of each pixel sequentially input, and An alternative pixel value generation unit that generates an alternative pixel value from the video signal of the object pixel based on the key value of each pixel, and information indicating the position of a padding pixel based on the sequentially input key value of each pixel. A padding pixel position holding unit for holding the padding pixel, specifying a padding pixel with reference to the padding pixel position holding unit, and using the substitute pixel value and the value of the video signal in the buffer memory for the specified padding pixel. And a filtering unit for performing a filtering process.

【0013】これによって、パディング画素の位置を示
す情報がパディング画素位置保持部に保持され、その情
報に従って、代替画素値を用いたフィルタリング処理が
行われる。
As a result, the information indicating the position of the padding pixel is held in the padding pixel position holding unit, and a filtering process using the substitute pixel value is performed according to the information.

【0014】[0014]

【実施の形態】以下、本発明の実施の形態について、図
1〜図16を用いて説明する。図1は、本発明の画像オ
ブジェクト素材生成装置10の構成を示すブロック図で
ある。画像オブジェクト素材生成装置10は、入力され
た映像信号で表される画像のフレームサイズを変更し、
フレーム内の物体画像と背景画像との境界を平滑化して
出力する機能を有し、キー生成部11、フレームサイズ
変換部12、低周波通過部13、画素補償部14、画素
選択部15および画像データ保持部16を備える。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below with reference to FIGS. FIG. 1 is a block diagram showing a configuration of an image object material generation device 10 according to the present invention. The image object material generation device 10 changes the frame size of the image represented by the input video signal,
It has a function of smoothing and outputting a boundary between an object image and a background image in a frame, and outputs a key generation unit 11, a frame size conversion unit 12, a low frequency passing unit 13, a pixel compensation unit 14, a pixel selection unit 15, and an image. A data holding unit 16 is provided.

【0015】キー生成部11は、画像オブジェクト素材
生成装置10への入力画像を表した映像信号を入力する
とともに、ユーザからのキー設定に関するパラメータの
入力を受け付け、そのパラメータに基づいてキー信号を
生成する。ここで、ユーザが入力するのは、例えばクロ
マキーを用いる場合、色の指定である。また、キーは、
入力画像中の物体画素と背景画素とを判別するために用
いられ、ここでは、各画素の属性がユーザによって指定
された特定の色からどれぐらい離れているかを示してい
る。具体的には、各画素の属性は、輝度の値Yと2つの
色差の値Cb、Crとから構成されており、キーは各画
素の色差から求められる色相と、ユーザによって指定さ
れた色の色相との差であらわされる。
The key generation unit 11 receives a video signal representing an input image to the image object material generation apparatus 10, receives a parameter input related to a key setting from a user, and generates a key signal based on the parameter. I do. Here, the user inputs, for example, in the case of using a chroma key, to specify a color. The key is
It is used to distinguish between an object pixel and a background pixel in the input image, and here indicates how far the attribute of each pixel is from a specific color designated by the user. Specifically, the attribute of each pixel is composed of a luminance value Y and two color difference values Cb and Cr, and the key is a hue obtained from the color difference of each pixel and a color of the color designated by the user. It is expressed as the difference from the hue.

【0016】フレームサイズ変換部12は、画像オブジ
ェクト素材生成装置10に入力される映像信号によって
表される画像を、拡大、あるいは縮小してそのフレーム
サイズを変換する。ユーザからのフレームサイズ変更の
倍率の入力を受け付け、オリジナルのフレームに対して
新たに生成される画素につき、直線補間により新たな画
素値とキー値とを与えることによって、入力画像のフレ
ームサイズを入力された倍率で変換する。
The frame size converter 12 enlarges or reduces an image represented by a video signal input to the image object material generating device 10 to convert the frame size. Input of the frame size change input from the user and input of the frame size of the input image by giving new pixel values and key values by linear interpolation for pixels newly generated for the original frame At the given magnification.

【0017】低周波通過部13は、入力される映像信号
の高周波成分を除去する。前段のフレームサイズ変換部
12においてフレームサイズが拡大された場合には、入
力された映像信号をそのまま出力し、フレームサイズが
縮小された場合には、画素の間引きなどにより生じる高
周波成分を除去する。
The low frequency passing section 13 removes high frequency components of the input video signal. When the frame size is expanded in the previous frame size conversion unit 12, the input video signal is output as it is, and when the frame size is reduced, high-frequency components generated by pixel thinning or the like are removed.

【0018】画素補償部14は、プログラムなどのソフ
トウェア、論理回路などのハードウェア、またはその組
み合わせなどによって実現される処理部であって、物体
画素と背景画素とを含む各映像ブロック内の背景画素
に、Low Pass Extrapolationパディングアルゴリズムに
従って代替画素値を与え、その映像ブロックをパディン
グする。
The pixel compensating section 14 is a processing section implemented by software such as a program, hardware such as a logic circuit, or a combination thereof. The pixel compensating section 14 includes a background pixel in each video block including an object pixel and a background pixel. Then, an alternative pixel value is given according to the Low Pass Extrapolation padding algorithm, and the video block is padded.

【0019】画素選択部15は、例えば、フレームごと
に、入力される低周波通過部13の出力と画素補償部1
4の出力とを切り替える。つまり、ユーザからの指示に
基づいて、背景領域の画像が要求される場合には低周波
通過部13の出力を選択し、物体領域の画像が要求され
る場合には画素補償部14の出力を選択して出力する。
For example, the pixel selection unit 15 outputs the output of the low-frequency passing unit 13 and the pixel compensation unit 1 for each frame.
4 is switched. That is, based on an instruction from the user, when the image of the background area is requested, the output of the low-frequency passing unit 13 is selected, and when the image of the object area is requested, the output of the pixel compensation unit 14 is selected. Select and output.

【0020】画像データ保持部16は、画素選択手段1
5からの画像データをバッファメモリに格納し、外部か
らの出力要求に従って画像データを出力する。このバッ
ファメモリとしては、FIFOを用いることで外部イン
ターフェースとの通信が容易となる。
The image data holding unit 16 includes the pixel selection unit 1
5 is stored in the buffer memory, and the image data is output according to an external output request. The use of a FIFO as the buffer memory facilitates communication with an external interface.

【0021】図2(a)は、図1に示された画像オブジ
ェクト素材生成装置10によって処理される映像信号の
内容を示す図である。図2(b)は、図1に示された画
像オブジェクト素材生成装置10で用いられる映像信号
とキー信号との構成の一例を示す図である。図2(c)
は、色相を円周で、彩度を半径で表した場合のキーを示
す図である。
FIG. 2A is a diagram showing the contents of a video signal processed by the image object material generating apparatus 10 shown in FIG. FIG. 2B is a diagram showing an example of a configuration of a video signal and a key signal used in the image object material generation device 10 shown in FIG. FIG. 2 (c)
Is a diagram showing keys when hue is represented by a circle and saturation is represented by a radius.

【0022】図2(a)に示すように、1静止画像(フ
レーム)の各画素は、フレームの最も上の水平走査線上
を左から右へ走査した後、その1つ下の水平走査線上を
同じく左から右へ走査するというような順序で走査され
る。画像オブジェクト素材生成装置10の入力画像を表
す1フレーム分の映像信号は、走査線上の各画素の属性
を表す映像信号が上記のような走査の順にシリアルに配
置された映像信号である。画素とは、フレームを水平方
向と垂直方向とに区切った場合の矩形の最小単位であ
り、各画素は、例えば輝度信号Y、青の色差信号Cbお
よび赤の色差信号Crで一意に表される1つの属性を持
っている。
As shown in FIG. 2A, each pixel of one still image (frame) is scanned from left to right on the uppermost horizontal scanning line of the frame, and then on the next lower horizontal scanning line. Scanning is performed in the same order from left to right. The video signal for one frame representing the input image of the image object material generation device 10 is a video signal in which video signals representing the attributes of each pixel on a scanning line are serially arranged in the above-described scanning order. A pixel is a minimum unit of a rectangle when a frame is divided into a horizontal direction and a vertical direction, and each pixel is uniquely represented by, for example, a luminance signal Y, a blue color difference signal Cb, and a red color difference signal Cr. It has one attribute.

【0023】より具体的には、図2(a)のように水平
走査線方向をX軸とし、垂直走査線方向をY軸として、
1フレームの左上角の座標を(0、0)とすると、各画
素は座標値(x、y)で表される。さらに、1フレーム
を水平走査線方向にM個(Mは2以上の正の整数)の画
素に分割し、垂直走査線方向にN個(Nは2以上の正の
整数)の画素に分割した場合、各画素は、まず一番上の
水平走査線上を座標(0、0)、座標(1、0)、座標
(2、0)、・・・、座標(M、0)の順に走査され、
次いで、座標(0、1)、座標(1、1)、座標(2、
1)、・・・、座標(M、1)の順に走査される。以下
の水平走査線上の画素も同様にして順次走査され、最後
に一番下の水平走査線上の画素が座標(0、N)、座標
(1、N)、座標(2、N)、・・・、座標(M、N)
の順に走査されて終了する。
More specifically, as shown in FIG. 2A, the horizontal scanning line direction is defined as the X axis, and the vertical scanning line direction is defined as the Y axis.
Assuming that the coordinates of the upper left corner of one frame are (0, 0), each pixel is represented by a coordinate value (x, y). Further, one frame is divided into M (M is a positive integer of 2 or more) pixels in the horizontal scanning line direction, and is divided into N (N is a positive integer of 2 or more) pixels in the vertical scanning line direction. In this case, each pixel is scanned on the uppermost horizontal scanning line in the order of coordinates (0, 0), coordinates (1, 0), coordinates (2, 0),..., Coordinates (M, 0). ,
Next, coordinates (0, 1), coordinates (1, 1), coordinates (2,
The scanning is performed in the order of 1),..., Coordinates (M, 1). Pixels on the following horizontal scanning lines are sequentially scanned in the same manner, and finally, the pixel on the bottom horizontal scanning line has coordinates (0, N), coordinates (1, N), coordinates (2, N),.・, Coordinates (M, N)
, And the scanning is terminated.

【0024】このように1フレームを表す映像信号は、
図2(b)の上段に示すように、各座標上の画素のそれ
ぞれ(Y、Cb、Cr)を表す映像信号が、上記走査の
順にシリアルに配置されて構成されている。以下、各画
素の属性を表す映像信号の値を画素値という。
Thus, the video signal representing one frame is
As shown in the upper part of FIG. 2B, a video signal representing each pixel (Y, Cb, Cr) on each coordinate is serially arranged in the above scanning order. Hereinafter, the value of the video signal representing the attribute of each pixel is referred to as a pixel value.

【0025】さらに、図2(b)の下段に示すように、
画像オブジェクト素材生成装置10においては、上記の
ような画素値に基づいて、各画素の色相がユーザによっ
て指定された色相からどの程度離れているかを示すキー
が画素ごとに計算され、上記画素値に対応付けて保持さ
れ、各処理において使用される。例えば、青色を背景と
するクロマキーの場合、キーは、青色からの色相の差で
あって、0から255の間の整数値で表される。
Further, as shown in the lower part of FIG.
In the image object material generating apparatus 10, a key indicating how far the hue of each pixel is away from the hue designated by the user is calculated for each pixel based on the above pixel value, and The information is stored in association with each other and used in each process. For example, in the case of a chroma key with a blue background, the key is a difference in hue from blue and is represented by an integer value between 0 and 255.

【0026】図2(c)のように、色相を円周で、彩度
を半径で表した場合、キーは、半径(彩度)方向の偏り
には関係なく、パラメータで指定された青色を示す点を
通る半径と、画素の色相を示す点を通る半径とのなす角
θ(0≦θ≦π)に対して、キー値=255×θ/π
(端数切捨て)で与えられる。
As shown in FIG. 2C, when the hue is represented by a circle and the saturation is represented by a radius, the key changes the blue color specified by the parameter regardless of the deviation in the radius (saturation) direction. Key value = 255 × θ / π with respect to an angle θ (0 ≦ θ ≦ π) formed by a radius passing through the point indicating the pixel and a radius passing through the point indicating the hue of the pixel.
(Rounded down).

【0027】なお、ここではクロマキーを用いている
が、他のキーあるいは他の手法を用いてもよいし、背景
を青色に限定する必要もない。また、各画素の画素値を
(Y、Cb、Cr)で表しているが、他の方法で表して
もよい。さらに、キー値の計算方法も、他の方法によっ
てもよい。
Although the chroma key is used here, other keys or other methods may be used, and the background need not be limited to blue. Further, the pixel value of each pixel is represented by (Y, Cb, Cr), but may be represented by another method. Further, the key value may be calculated by another method.

【0028】図3は、図1に示されたキー生成部11の
内部構成の一例を示すブロック図である。キー生成部1
1は、キー計算部31とパラメータ設定部32とを備え
る。
FIG. 3 is a block diagram showing an example of the internal configuration of the key generator 11 shown in FIG. Key generator 1
1 includes a key calculation unit 31 and a parameter setting unit 32.

【0029】キー計算部31は、入力映像信号の中から
特定の条件(例えば色)を利用して、入力映像信号に含
まれる物体画素と背景画素とを表すキー信号を生成す
る。キー信号を生成する条件は、パラメータ設定部32
で設定された値によって決まるが、この値は、画像に応
じて変更することができる。映像信号と、キー計算部3
1によって生成されたキー信号とは、フレームサイズ変
換部12に入力される。
The key calculator 31 generates a key signal representing an object pixel and a background pixel contained in the input video signal by using a specific condition (for example, color) from the input video signal. The condition for generating the key signal is determined by the parameter setting unit 32
Is determined by the value set in the above, but this value can be changed according to the image. Video signal and key calculation unit 3
1 is input to the frame size conversion unit 12.

【0030】パラメータ設定部32は、キーボードなど
の図示しない操作部からのユーザによる条件の入力を受
け付け、入力された条件をキーのパラメータに設定す
る。ここでは、前記条件は背景画素の色相値である。
The parameter setting section 32 receives an input of a condition by a user from an operation section (not shown) such as a keyboard, and sets the input condition as a parameter of a key. Here, the condition is the hue value of the background pixel.

【0031】図4は、図1に示されたフレームサイズ変
換部12の内部構成の一例を示すブロック図である。フ
レームサイズ変換部12は、バッファメモリ41、バッ
ファメモリ42、乗数設定部43、乗算器44、乗算器
45および加算器46を備える。
FIG. 4 is a block diagram showing an example of the internal configuration of the frame size converter 12 shown in FIG. The frame size conversion unit 12 includes a buffer memory 41, a buffer memory 42, a multiplier setting unit 43, a multiplier 44, a multiplier 45, and an adder 46.

【0032】バッファメモリ41とバッファメモリ42
とは、同一行の画素のデータ(画素値とキー値)を1ラ
イン分保持する。乗数設定部43は、乗算器44と乗算
器45とに乗数を設定する。乗算器44は、乗数設定部
43によって設定された乗数をバッファメモリ41の出
力に乗算する。乗算器45は、乗数設定部43によって
設定された乗数をバッファメモリ42の出力に乗算す
る。加算器46は、乗算器44と乗算器45との出力を
加算する。上記のように構成されたフレームサイズ変換
部12は、フレームサイズを拡大縮小する場合、新しい
画素について画素値とキー値とを生成する必要があるた
め、同一行の2つの画素のデータを用いて内挿処理およ
び間引き処理を施すことによって、新たな画素のデータ
を生成する。以下、この内挿処理と間引き処理について
説明する。
Buffer memory 41 and buffer memory 42
Means that one line of pixel data (pixel value and key value) in the same row is held. The multiplier setting unit 43 sets a multiplier for the multiplier 44 and the multiplier 45. The multiplier 44 multiplies the output of the buffer memory 41 by the multiplier set by the multiplier setting unit 43. The multiplier 45 multiplies the output of the buffer memory 42 by the multiplier set by the multiplier setting unit 43. The adder 46 adds the outputs of the multiplier 44 and the multiplier 45. When scaling up or down the frame size, the frame size conversion unit 12 configured as described above needs to generate a pixel value and a key value for a new pixel, and thus uses the data of two pixels in the same row. New pixel data is generated by performing the interpolation process and the thinning process. Hereinafter, the interpolation processing and the thinning processing will be described.

【0033】乗数設定部43は、乗算器44および乗算
器45に乗数を設定するが、この乗数はフレームサイズ
の拡大縮小率に応じて決まる値で、例えばQ/Pの場合
(ただし、P、Qは正の整数)は、連続したP画素ずつ
に対して処理を行い、Q画素の画素の映像信号を出力す
る。Qが「2」より大きければ、出力するQ画素の画素
データのi番目のデータに対する乗数として、j/(P
−1)<i/(Q−1)<(j+1)/(P−1)とな
るjを見つけ(ただし、i、jは正の整数)、乗算器4
4の乗数を1−(P−1)×((i/(Q−1))ー
(j/(P−1)))とし、乗算器45の乗数を(P−
1)×((i/(Q−1))ー(j/(P−1)))と
する。Qが「1」または「2」のときは、間引き処理に
相当し、Qが「1」のときは、乗数を初回のみ乗算器4
4に「1」を設定し、それ以外の場合は、全て「0」と
する。Qが「2」のときは、初回には乗算器44に
「1」を設定し、最終回に乗算器45に「1」を設定
し、それ以外は「0」とする。
The multiplier setting unit 43 sets a multiplier in the multiplier 44 and the multiplier 45. The multiplier is a value determined according to the frame size enlargement / reduction ratio. For example, in the case of Q / P (where P, (Q is a positive integer) performs processing on successive P pixels, and outputs a video signal of the Q pixel. If Q is greater than “2”, j / (P is a multiplier for the i-th data of the pixel data of the output Q pixel.
-1) <i / (Q-1) <(j + 1) / (P-1) is found (where i and j are positive integers), and the multiplier 4
The multiplier of 4 is 1− (P−1) × ((i / (Q−1)) − (j / (P−1))), and the multiplier of the multiplier 45 is (P−
1) × ((i / (Q−1)) − (j / (P−1))) When Q is “1” or “2”, it corresponds to the thinning-out processing, and when Q is “1”, the multiplier is used only for the first time.
4 is set to “1”; otherwise, all are set to “0”. When Q is “2”, “1” is set to the multiplier 44 at the first time, “1” is set to the multiplier 45 at the last time, and “0” is set at other times.

【0034】乗算器44および乗算器45は、乗数設定
部43によってこのように設定された乗数とバッファメ
モリ41およびバッファメモリ42に保持されたデータ
とを乗算し、加算器46に出力する。加算器46は、乗
算器44と乗算器45との乗算結果を加算して出力す
る。このように、フレームサイズ変換部12は、間引き
または内挿処理によって生じた新たな画素のデータを、
隣接する画素のデータを使って直線補間する。このよう
にしてフレームのサイズを変換された画素のデータ(画
素値とキー値)は低周波通過部13の入力データとな
る。
The multipliers 44 and 45 multiply the multiplier set in this way by the multiplier setting unit 43 with the data held in the buffer memories 41 and 42 and output the result to the adder 46. The adder 46 adds the multiplication results of the multiplier 44 and the multiplier 45 and outputs the result. As described above, the frame size conversion unit 12 converts the data of a new pixel generated by the thinning-out or interpolation processing into
Linear interpolation is performed using data of adjacent pixels. The pixel data (pixel value and key value) whose frame size has been converted in this way becomes input data to the low-frequency passing unit 13.

【0035】図5は、図1に示された低周波通過部13
の内部構成の一例を示すブロック図である。低周波通過
部13は、バッファメモリ51〜53、除算器54〜5
6、加算器57およびマルチプレクサ58を備える。
FIG. 5 shows the low-frequency passage section 13 shown in FIG.
FIG. 2 is a block diagram showing an example of the internal configuration of the device. The low-frequency passing unit 13 includes buffer memories 51 to 53, dividers 54 to 5
6, an adder 57 and a multiplexer 58.

【0036】フレームサイズ変換部12からの入力デー
タに対して、ここでは連続する3画素に対するフィルタ
リング処理について、例えば重み係数の比が1:2:1
としたフィルタリング処理について説明する。バッファ
メモリ51〜53は、同一行の隣接する画素のデータを
保持する。除算器54〜56は、それぞれバッファメモ
リ51〜53に保持されたデータを被除数とし、除数を
それぞれ「4」、「2」、「4」として除算する。加算
器57は、除算器54〜56の除算結果を加算する。フ
ィルタリング処理の重み係数の比は任意に設定が可能で
同様に除数を決めればよい。また、フィルタ処理を行う
連続する画素の数も任意に設定してよい。ただし、その
場合は画素数に応じた比を設定する必要がある。
For the input data from the frame size converter 12, the filtering process is performed on three consecutive pixels, for example, the ratio of the weighting factors is 1: 2: 1.
The filtering process described above will be described. The buffer memories 51 to 53 hold data of adjacent pixels in the same row. The dividers 54 to 56 use the data held in the buffer memories 51 to 53 as dividends and divide the divisors as “4”, “2”, and “4”, respectively. The adder 57 adds the division results of the dividers 54 to 56. The ratio of the weighting coefficients for the filtering process can be set arbitrarily, and the divisor may be determined in the same manner. Further, the number of continuous pixels on which the filtering process is performed may be arbitrarily set. However, in that case, it is necessary to set a ratio according to the number of pixels.

【0037】マルチプレクサ58は、低周波通過部13
への入力データとそれにフィルタリング処理を施した信
号とのいずれか一方を選択する。特にフレームサイズが
縮小された場合は、高周波成分を除去する必要があるの
で、フィルタリング処理を施した信号を選択する。マル
チプレクサ58において選択されたデータは、画素補償
部14と画素選択部15とに供給される。
The multiplexer 58 is connected to the low-frequency passing section 13.
Either the input data to the input or the signal subjected to the filtering process is selected. In particular, when the frame size is reduced, it is necessary to remove high-frequency components, so a signal subjected to a filtering process is selected. The data selected by the multiplexer 58 is supplied to the pixel compensation unit 14 and the pixel selection unit 15.

【0038】図6は、図1に示された画素補償部14の
内部構成の一例を示すブロック図である。画素補償部1
4は、物体画素に隣接する背景画素(パディング画素)
に代替画素値を補償するパディング処理を施す。ここで
は、パディング処理として精度のよいLow Pass Extrapo
lationパディングアルゴリズムを採用する。
FIG. 6 is a block diagram showing an example of the internal configuration of the pixel compensator 14 shown in FIG. Pixel compensation unit 1
4 is a background pixel (padding pixel) adjacent to the object pixel
Is subjected to padding processing for compensating for the substitute pixel value. Here, low-pass extrapo
Adopt lation padding algorithm.

【0039】Low Pass Extrapolationパディングアルゴ
リズムは次の3段階で行われる。第1段階は、あらかじ
め設定されたしきい値以上のキーの値をもつ画素、すな
わち物体画素について、その画素の値(例えば輝度値、
色差CrおよびCb)のN×N画素ブロック(Nは正の
整数)ごとの平均値を求める。第2段階は、前記しきい
値未満のキーの値をもつ画素、すなわち背景画素の画素
値を第1段階で求めた平均値で置き換える。第3段階
は、前記しきい値未満のキーの値をもつ画素、すなわち
背景画素について上下左右4画素の画素値の平均をと
り、その平均値で前記画素の画素値を置換する2次元フ
ィルタリング処理を施す。
The Low Pass Extrapolation padding algorithm is performed in the following three stages. In the first step, for a pixel having a key value equal to or larger than a preset threshold value, that is, an object pixel, the value of the pixel (for example, a luminance value,
An average value of the color differences Cr and Cb) is obtained for each N × N pixel block (N is a positive integer). In the second step, the pixels having the key value less than the threshold value, that is, the pixel values of the background pixels are replaced with the average value obtained in the first step. The third step is a two-dimensional filtering process of averaging the pixel values of four pixels in the upper, lower, left and right directions for a pixel having a key value less than the threshold value, that is, a background pixel, and replacing the pixel value of the pixel with the average value. Is applied.

【0040】画素補償部14は、バッファメモリ61、
平均値計算部62、パディング処理部63、ラインバッ
ファ64およびフィルタ処理部65を備える。バッファ
メモリ61は、N×N画素の映像ブロック(Nは正の整
数)分の画素値とキー値とを保持するための記憶領域を
有するメモリである。上記Low Pass Extrapolationパデ
ィングアルゴリズムの第1段階として、平均値計算部6
2は、バッファメモリ61に1画素分ずつ順次書き込ま
れていく画素のデータを参照し、そのうちのキーと別途
ユーザによって入力されたしきい値とを比較して、しき
い値以上のキーをもつ画素の画素値を合計し、その画素
数をカウントする。1映像ブロックすなわちNライン分
の画素のデータがバッファメモリ61に保持された時点
で輝度の平均値が求まり、次の段階に移る。
The pixel compensator 14 includes a buffer memory 61,
An average calculator 62, a padding processor 63, a line buffer 64, and a filter processor 65 are provided. The buffer memory 61 is a memory having a storage area for holding pixel values and key values for a video block of N × N pixels (N is a positive integer). As a first step of the Low Pass Extrapolation padding algorithm, the average value calculation unit 6
Reference numeral 2 refers to pixel data that is sequentially written one pixel at a time in the buffer memory 61, compares a key among them with a threshold value separately input by the user, and has a key equal to or greater than the threshold value. The pixel values of the pixels are summed, and the number of pixels is counted. The average value of the luminance is obtained when the data of the pixels of one video block, that is, N lines is held in the buffer memory 61, and the process proceeds to the next stage.

【0041】第2段階として、パディング処理部63
は、バッファメモリ61に保持されているデータを取り
出し、前述のしきい値未満のキーを持つ画素を検出し、
その画素の画素値を平均値計算部62で求めた平均値で
置き換えた後、ラインバッファ64に出力する。ライン
バッファ64は、3ライン分の画素値とキー値とを保持
するための記憶領域を有したメモリである。
As a second stage, the padding processing section 63
Retrieves data held in the buffer memory 61, detects a pixel having a key less than the above-described threshold,
After the pixel value of the pixel is replaced with the average value calculated by the average value calculation unit 62, the pixel value is output to the line buffer 64. The line buffer 64 is a memory having a storage area for holding pixel values and key values for three lines.

【0042】第3段階として、フィルタ処理部65は、
ラインバッファ64に保持されている各画素の画素値と
キー値とを順次取り出し、その画素のキー値がしきい値
未満であれば、その画素の上下左右に隣接する4画素の
画素値をラインバッファ64から読み出し、その画素の
隣接4画素の画素値の平均を取る。さらに、その画素の
画素値を平均値に置き換えて、その画素の映像信号を画
素選択部15に出力する。
As a third stage, the filter processing unit 65
The pixel value and the key value of each pixel stored in the line buffer 64 are sequentially extracted, and if the key value of the pixel is less than the threshold value, the pixel values of four pixels adjacent to the pixel above, below, left, and right are line The data is read from the buffer 64 and the average of the pixel values of four pixels adjacent to the pixel is calculated. Further, the pixel value of the pixel is replaced with the average value, and the video signal of the pixel is output to the pixel selection unit 15.

【0043】以上の処理において、画素補償部14は、
3段のパイプライン処理によって実現することが可能で
ある。また、上記の構成では、第1段階の処理を実現す
るには、しきい値以上のキーの値をもつ画素の(輝度)
値の平均値を計算する回路が必要である。第2段階以降
は、平均値が求まった後でないと実行できないのでNラ
イン分の画素のデータを納めるバッファメモリが必要で
ある。第3段階の処理では、上下の画素を参照している
ため、少なくとも2ラインと1画素分のバッファメモリ
が必要となる。従って、Low Pass Extrapolationパディ
ング処理は3つの工程を実行する処理部と(N+2)ラ
イン分の画素のデータを納めるバッファメモリを必要と
する。
In the above processing, the pixel compensating section 14
This can be realized by three-stage pipeline processing. Further, in the above configuration, in order to realize the first-stage processing, the (luminance) of the pixel having the key value equal to or larger than the threshold value is set.
A circuit for calculating the average of the values is required. Since the second and subsequent steps cannot be executed until the average value is obtained, a buffer memory for storing the data of the pixels for N lines is necessary. Since the upper and lower pixels are referred to in the third stage processing, a buffer memory for at least two lines and one pixel is required. Therefore, the low pass extrapolation padding process requires a processing unit that executes three steps and a buffer memory that stores pixel data for (N + 2) lines.

【0044】図7は、図1に示された画素補償部14の
内部構成の他の例を示すブロック図である。図7に示さ
れた画素補償部14は、バッファメモリ71、画素識別
部72、物体画素平均値計算部73、パディングマップ
保持部74および代替画素供給部75を備える。この画
素補償部14においてLow Pass Extrapolationパディン
グアルゴリズムは、次の2段階で行われる。
FIG. 7 is a block diagram showing another example of the internal configuration of the pixel compensator 14 shown in FIG. The pixel compensating unit 14 illustrated in FIG. 7 includes a buffer memory 71, a pixel identifying unit 72, an object pixel average value calculating unit 73, a padding map holding unit 74, and a substitute pixel supplying unit 75. The Low Pass Extrapolation padding algorithm in the pixel compensator 14 is performed in the following two stages.

【0045】バッファメモリ71は、N×N画素(Nは
正の整数)の映像ブロックの画素のデータ(画素値とキ
ー値)を記憶するための記憶領域を有し、低周波通過部
13から入力される画素のデータを1画素分ずつ順次バ
ッファメモリに保持する。
The buffer memory 71 has a storage area for storing pixel data (pixel value and key value) of a video block of N × N pixels (N is a positive integer). The input pixel data is sequentially stored in the buffer memory for each pixel.

【0046】画素識別部72は、Low Pass Extrapolati
onパディングアルゴリズムの第1段階で、前段の低周波
通過部13から入力される各画素のキーの値と前記しき
い値とを比較して、その画素がパディング画素であるか
物体画素であるかを識別する。画素識別部72は、キー
の値がしきい値以上であれば、その画素が物体画素であ
ることを示す「0」をパディングマップ保持部74に出
力するとともに、その画素のデータを物体画素平均値計
算部73に出力する。キーの値がしきい値未満であれ
ば、その画素がパディング画素であることを示す「1」
を、パディングマップ保持部74に出力する。
The pixel identifying section 72 has a low pass extrapolati
In the first stage of the padding algorithm, the key value of each pixel input from the previous low-frequency passing unit 13 is compared with the threshold value to determine whether the pixel is a padding pixel or an object pixel. Identify. If the value of the key is equal to or greater than the threshold value, the pixel identification unit 72 outputs “0” indicating that the pixel is an object pixel to the padding map holding unit 74, and outputs the data of the pixel to the object pixel average. Output to the value calculator 73. If the key value is less than the threshold value, "1" indicating that the pixel is a padding pixel
Is output to the padding map holding unit 74.

【0047】物体画素平均値計算部73は、Low Pass E
xtrapolationパディングアルゴリズムの第1段階で、画
素識別部72で識別された物体画素の画素値の平均値を
計算する。具体的には、画素識別部72で識別された物
体画素の画素値を入力されるごとに順次加算するととも
に、その画素数をカウントし、バッファメモリ71にN
ライン分のデータが保持された時点で、物体画素の画素
値の合計をカウントした画素数で除算して、物体画素の
画素値の平均値を求める。
The object pixel average value calculation unit 73 calculates the low pass E
In the first stage of the xtrapolation padding algorithm, the average value of the pixel values of the object pixels identified by the pixel identifying unit 72 is calculated. Specifically, each time the pixel value of the object pixel identified by the pixel identifying unit 72 is input, the pixel value is sequentially added, and the number of pixels is counted.
When the data for the line is held, the average of the pixel values of the object pixels is obtained by dividing the sum of the pixel values of the object pixels by the number of counted pixels.

【0048】パディングマップ保持部74は、N×N画
素の映像ブロック内の各画素につき、「1」か「0」か
の1ビットでその画素がパディング画素か物体画素かを
示したマップを記憶するための記憶領域を有したメモリ
であり、画素識別部72によって1画素分ずつマップが
書き込まれる。
The padding map holding unit 74 stores a map indicating whether the pixel is a padding pixel or an object pixel by one bit of “1” or “0” for each pixel in the video block of N × N pixels. This is a memory having a storage area for writing, and a map is written for each pixel by the pixel identification unit 72.

【0049】上記のようにしてバッファメモリ71にN
ライン分の画像データが保持されるのと並行して、物体
画素平均値計算部73で画素値の平均値が計算され、パ
ディングマップ保持部74でパディングマップが完成
し、画素補償部14は、Low Pass Extrapolationパディ
ングアルゴリズムの次の段階の処理を開始する。なお、
ここではパディングマップ保持部74は「1」か「0」
かの1ビットでその画素がパディング画素か物体画素か
を示したパディングマップを記憶するとしたが、この例
に限定されることはなく、例えば画素識別部72で識別
されたパディング画素の映像ブロック上での位置をメモ
リに保持するとしてもよい。
As described above, N is stored in the buffer memory 71.
In parallel with the image data for the line being held, the average value of the pixel values is calculated by the object pixel average value calculation unit 73, the padding map is completed by the padding map holding unit 74, and the pixel compensation unit 14 Starts processing of the next stage of the Low Pass Extrapolation padding algorithm. In addition,
Here, the padding map holding unit 74 is “1” or “0”.
Although the padding map indicating whether the pixel is a padding pixel or an object pixel is stored in the one bit, the present invention is not limited to this example. For example, the padding map may be stored in the image block of the padding pixel identified by the pixel identifying unit 72. May be stored in the memory.

【0050】代替画素供給部75は、Low Pass Extrapo
lationパディングアルゴリズムの第2段階において、パ
ディングマップ保持部74に保持されたマップ、または
パディング画素の映像ブロック上での位置を参照し、パ
ディング画素に対しては、2次元フィルタリング処理を
施す。2次元フィルタリング処理の際に必要となる上下
左右4画素の画素値は、それらの隣接画素がパディング
画素である場合、バッファメモリ71に保持された画素
値を参照する必要はなく、物体画素平均値計算部73で
計算された平均値を用いる。それら上下左右の隣接4画
素がそれぞれパディング画素であるか否かは、パディン
グマップ保持部74に保持されたマップを参照すること
でわかる。
The alternative pixel supply unit 75 is provided with a Low Pass Extrapo
In the second stage of the lation padding algorithm, the map stored in the padding map storage unit 74 or the position of the padding pixel on the video block is referred to, and two-dimensional filtering is performed on the padding pixel. If the adjacent pixels are padding pixels, it is not necessary to refer to the pixel values held in the buffer memory 71 as the pixel values of the four pixels in the upper, lower, left, and right directions required in the two-dimensional filtering processing. The average value calculated by the calculation unit 73 is used. Whether or not the four adjacent pixels on the upper, lower, left, and right sides are padding pixels can be determined by referring to the map held in the padding map holding unit 74.

【0051】なお上記の説明では、パディングマップ保
持部74がN×N画素のパディングマップを保持するこ
ととしたが、本発明はこの例に限定されず、パディング
マップ保持部74に(N+2)×(N+2)画素分のマ
ップの記憶領域を持たせて、その内側N×N画素の部分
に前述のN×N画素のパディングマップを記憶させ、外
周の画素の部分はパディング画素として初期設定してお
いてもよい。これにより、他の映像ブロックと隣接する
外周部分の例外処理がなくなり、映像ブロック間の境界
部分における2次元フィルタリング後の画像の不自然さ
をなくすることができる。パディングマップ保持部74
が前述のようなパディングマップではなく、パディング
画素の映像ブロック上での位置を記憶しておく場合も同
様に、パディングマップ保持部74にあらかじめ(N+
2)×(N+2)画素分のマップの記憶領域を持たせて
おき、前記映像ブロックの外周の画素の部分はパディン
グ画素として初期設定しておくことにより、外周部分の
例外処理をなくし、映像ブロック間の境界部分における
画像の不自然さをなくすることができる。
In the above description, the padding map holding section 74 holds the padding map of N × N pixels. However, the present invention is not limited to this example, and the padding map holding section 74 stores (N + 2) × A map storage area for (N + 2) pixels is provided, and the above-described padding map of N × N pixels is stored in the inner N × N pixels, and the outer peripheral pixels are initialized as padding pixels. You may leave. As a result, the exception processing of the outer peripheral portion adjacent to another video block is eliminated, and the unnaturalness of the image after the two-dimensional filtering at the boundary portion between the video blocks can be eliminated. Padding map holding unit 74
Is stored in the padding map holding unit 74 in advance in the case where the position of the padding pixel on the video block is stored instead of the padding map as described above.
2) A map storage area for (N + 2) pixels is provided, and the peripheral pixels of the video block are initially set as padding pixels, so that exceptional processing of the peripheral portion is eliminated. It is possible to eliminate the unnaturalness of the image at the boundary between them.

【0052】上記のように、図7に示した画素補償部1
4によれば、図6に示された画素補償部14に比べて、
データ量の大きい画素値やキー値を保持しておくための
画像メモリの個数および記憶領域を低減することができ
るので、画素補償部14の回路規模を縮小することがで
きるという効果がある。このような画素補償部14を用
いて従来と同じ回路規模の画像オブジェクト素材生成装
置10を構成する場合、図7のような画素補償部14に
よって回路規模が縮小された分、画像メモリの記憶容量
を増加するなどによって画素値のビット数を上げるよう
にすれば、映像信号の解像度を向上することができ、よ
り高品質な画像オブジェクト素材を提供することができ
るという効果がある。
As described above, the pixel compensator 1 shown in FIG.
According to FIG. 4, compared to the pixel compensator 14 shown in FIG.
Since the number of image memories and storage areas for holding pixel values and key values having a large data amount can be reduced, there is an effect that the circuit scale of the pixel compensator 14 can be reduced. When the image object material generating apparatus 10 having the same circuit scale as that of the related art is configured using such a pixel compensator 14, the storage capacity of the image memory is reduced by the reduced circuit scale by the pixel compensator 14 as shown in FIG. If the number of bits of the pixel value is increased by increasing the number of pixels, the resolution of the video signal can be improved, and there is an effect that a higher quality image object material can be provided.

【0053】さらに、図7に示された画素補償部14に
よれば、パディングマップ保持部74内にパディングマ
ップを作成することによって、図6に示されたパディン
グ処理部63が行っていたパディング処理と同様の結果
が得られる上、バッファメモリ71に1映像ブロック分
の画素値とキー値とが書き込まれた時点で、パディング
マップが完成しているので、直後に代替画素供給部75
が2次元フィルタリングを開始することができる。これ
に対して図6に示された画素補償部14では、バッファ
メモリ61に1映像ブロック分の画素値とキー値とが書
き込まれた時点では、物体画素の画素値の平均値が求め
られただけで、この後、パディング処理部63によって
少なくとも2ライン分の画素につきパディング処理が終
了するまでは、フィルタ処理部65は2次元フィルタリ
ング処理を開始することができない。従って、図7に示
された画素補償部14では図6に示された画素補償部1
4に比べて、より高速にパディング処理と2次元フィル
タリング処理を完了することができるという効果があ
る。
Further, according to the pixel compensating section 14 shown in FIG. 7, by creating a padding map in the padding map holding section 74, the padding processing section 63 shown in FIG. And the padding map is completed when the pixel value and the key value for one video block are written into the buffer memory 71.
Can initiate two-dimensional filtering. On the other hand, in the pixel compensating unit 14 shown in FIG. 6, when the pixel value and the key value for one video block are written in the buffer memory 61, the average value of the pixel values of the object pixels is obtained. Only then, the filter processing section 65 cannot start the two-dimensional filtering processing until the padding processing section 63 completes the padding processing for at least two lines of pixels. Therefore, the pixel compensating unit 14 shown in FIG.
4 has an effect that the padding process and the two-dimensional filtering process can be completed faster.

【0054】以上のように構成された画素補償部14の
動作について図8〜図12に示されたフローチャートを
用いて説明する。なお、以下では各画素のデータとして
輝度値を例にとって説明するが、実際には、色差Cr値
およびCb値についても輝度値と同様の手順によって、
パディング処理および2次元フィルタリングが行われ
る。各色差Cr値およびCb値のパディングおよび2次
元フィルタリングについては、平均値を求めるためのカ
ウンタを3つ用意して輝度値に対する処理と並列して処
理を行ってもよいし、あるいは輝度値→色差Cr値→色
差Cb値のように順次に処理を行ってもよい。
The operation of the pixel compensator 14 configured as described above will be described with reference to the flowcharts shown in FIGS. In the following, a description will be given by taking a luminance value as an example of the data of each pixel. However, actually, the color difference Cr value and the Cb value are also determined in the same procedure as the luminance value.
Padding processing and two-dimensional filtering are performed. For the padding and two-dimensional filtering of each chrominance Cr value and Cb value, three counters for obtaining an average value may be prepared and the processing may be performed in parallel with the processing for the luminance value, or the luminance value → the chrominance Processing may be performed sequentially such as Cr value → color difference Cb value.

【0055】図8は、図6に示された平均値計算部62
の処理手順の一例を示すフローチャートである。平均値
計算部62は、順次入力される各画素のデータにつき、
N×N画素の映像ブロック内のすべての画素につき、以
下の平均値計算処理(S1〜S3)を繰り返す(ループ
A)。
FIG. 8 shows the average value calculation unit 62 shown in FIG.
9 is a flowchart showing an example of the processing procedure of FIG. The average value calculation unit 62 calculates, for each pixel data sequentially input,
The following average value calculation processing (S1 to S3) is repeated for all the pixels in the video block of N × N pixels (loop A).

【0056】つまり、平均値計算部62は、順次入力さ
れる各画素のキー値とユーザの入力に係るしきい値とを
比較して(S1)、しきい値以上のキーをもつ画素、す
なわち物体画素の輝度値をカウンタに加算し(S2)、
その画素数をカウントする(S3)。画素のキー値とユ
ーザの入力に係るしきい値とを比較して(S1)、その
画素のキー値がしきい値未満(背景画素)であれば、次
に入力される画素のキー値とユーザの入力に係るしきい
値とを比較する(S1)。
That is, the average value calculation unit 62 compares the key value of each pixel sequentially input with the threshold value related to the user's input (S1), and determines the pixel having a key equal to or larger than the threshold value, that is, The luminance value of the object pixel is added to the counter (S2),
The number of pixels is counted (S3). The key value of the pixel is compared with the threshold value related to the input by the user (S1). If the key value of the pixel is smaller than the threshold value (background pixel), the key value of the next input pixel is The threshold value is compared with a threshold value related to a user input (S1).

【0057】平均値計算部62は、映像ブロック内のす
べての画素について物体画素の輝度値を合計する処理を
終了すると、輝度値を加算したカウンタの値を被除数と
し、カウントした画素数を除数として輝度値の平均値を
計算し、計算結果をパディング処理部63に出力する
(S4)。
When the processing of summing the luminance values of the object pixels for all the pixels in the video block is completed, the average value calculating section 62 sets the value of the counter to which the luminance value has been added as the dividend and the number of counted pixels as the divisor. The average of the luminance values is calculated, and the calculation result is output to the padding processing unit 63 (S4).

【0058】この後、平均値計算部62は、輝度値を加
算したカウンタをクリアした後、新たなN×N画素の映
像ブロックにつき、順次、上記フローチャートに示した
処理を繰り返す。上記のようにして、平均値計算部62
によって当該映像ブロック内の物体画素の輝度値の平均
値が求められると、以下のパディング処理部63による
処理が開始される。
After that, the average value calculation section 62 clears the counter to which the luminance value has been added, and then repeats the processing shown in the above flow chart sequentially for a new video block of N × N pixels. As described above, the average value calculation unit 62
When the average value of the luminance values of the object pixels in the video block is obtained, the following processing by the padding processing unit 63 is started.

【0059】図9は、図6に示されたパディング処理部
63の処理手順を示すフローチャートである。パディン
グ処理部63は、バッファメモリ61内に保持されてい
るN×N画素の映像ブロック内のすべての画素につき、
前述した走査の順に、以下のパディング処理(S10〜
S13)を繰り返す(ループB)。
FIG. 9 is a flowchart showing a processing procedure of the padding processing section 63 shown in FIG. The padding processing unit 63 performs, for every pixel in the N × N pixel video block held in the buffer memory 61,
The following padding processing (S10 to S10)
S13) is repeated (loop B).

【0060】つまり、パディング処理部63は、バッフ
ァメモリ61に保持されている1画素分の画素値とキー
値とを読み出す(S10)。次いで、読み出された画素
のキー値とユーザの入力に係る前記しきい値とを比較し
(S11)、その画素のキー値がしきい値未満(背景画
素)であれば、その画素の輝度値を平均値計算部62で
求められた平均値で置き換えて(S12)、その画素の
画素値とキー値とをラインバッファ64に出力する(S
13)。読み出された画素のキー値とユーザの入力に係
る前記しきい値とを比較して(S11)、その画素のキ
ー値がしきい値以上(物体画素)であれば、バッファメ
モリ61から読み出した画素値とキー値とをラインバッ
ファ64に出力する(S13)。
That is, the padding processing section 63 reads out the pixel value and the key value of one pixel stored in the buffer memory 61 (S10). Next, the key value of the read pixel is compared with the threshold value related to the user's input (S11). If the key value of the pixel is less than the threshold value (background pixel), the luminance of the pixel is determined. The value is replaced with the average value obtained by the average value calculation unit 62 (S12), and the pixel value and the key value of the pixel are output to the line buffer 64 (S12).
13). The key value of the read pixel is compared with the threshold value according to the user's input (S11). If the key value of the pixel is equal to or greater than the threshold value (object pixel), the pixel value is read from the buffer memory 61. The pixel value and the key value are output to the line buffer 64 (S13).

【0061】ここで、当該映像ブロックの3ライン(す
なわち、3N画素)分の画素につき、パディング処理部
63が上記パディング処理を終了すると、後段のフィル
タ処理部65が次の処理を開始する。さらに、パディン
グ処理部63は、バッファメモリ61に保持されている
N×N画素の映像ブロック内のすべての画素につき上記
パディング処理を終了すると、バッファメモリ61に保
持されている新たな映像ブロック内の画素につき、上記
フローチャートに示した処理を繰り返す。
Here, when the padding processing section 63 completes the padding processing for the pixels of three lines (that is, 3N pixels) of the video block, the subsequent filtering processing section 65 starts the next processing. Further, when the padding processing section 63 finishes the padding processing for all the pixels in the N × N pixel video block held in the buffer memory 61, the padding processing section 63 sets a new video block held in the buffer memory 61. The process shown in the above flowchart is repeated for each pixel.

【0062】図10は、図6に示されたフィルタ処理部
65の処理手順の一例を示すフローチャートである。フ
ィルタ処理部65は、ラインバッファ64に3ライン分
の画素値とキー値とが書き込まれると、前述した走査の
順に当該映像ブロック内の画素に注目し(以下、注目し
ている画素を注目画素という。)、順次以下の隣接画素
の輝度の平均値計算処理(S20〜S26)を繰り返す
(ループC)。
FIG. 10 is a flowchart showing an example of the processing procedure of the filter processing section 65 shown in FIG. When the pixel values and the key values for three lines are written into the line buffer 64, the filter processing unit 65 focuses on the pixels in the video block in the order of the scanning described above (hereinafter, the focused pixel is referred to as the focused pixel). ), And the average value calculation processing (S20 to S26) of the following adjacent pixels is sequentially repeated (loop C).

【0063】なお、1ライン目の画素などのように、各
映像ブロックの端に位置する画素については、それに隣
接する画素が当該映像ブロック内にないために以下の2
次元フィルタリング処理において例外処理をする必要が
あるが、ここでは前述した方法により、注目画素に隣接
する画素がない場合にはその隣接画素を背景画素とみな
し、その輝度値を、図8のステップS4で求められた平
均値として計算する。また、ラインバッファ64には、
フィルタ処理部65が2ライン分の処理を終了した後、
1画素分ずつ古いデータが新たなデータで順次上書きさ
れるものとする。
Note that the pixels located at the end of each video block, such as the pixels on the first line, have the following 2
Exceptional processing needs to be performed in the dimensional filtering process. In this case, if there is no pixel adjacent to the pixel of interest, the adjacent pixel is regarded as a background pixel, and the luminance value is determined in step S4 in FIG. Calculate as the average value obtained in. Further, the line buffer 64 includes
After the filter processing unit 65 finishes processing for two lines,
It is assumed that old data is sequentially overwritten with new data for each pixel.

【0064】まず、フィルタ処理部65は、ラインバッ
ファ64に保持されている注目画素の画素値とキー値と
を読み出し(S20)、読み出した注目画素のキー値が
しきい値未満、すなわち注目画素が背景画素であるか否
かを判定する(S21)。判定の結果、注目画素のキー
値がしきい値以上(物体画素)であれば、ラインバッフ
ァ64から読み出した画素値の映像信号を画素選択部1
5に出力する(S26)。
First, the filter processing unit 65 reads the pixel value and the key value of the pixel of interest held in the line buffer 64 (S20), and the key value of the read pixel of interest is less than the threshold value, that is, the pixel of interest. Is determined as a background pixel (S21). If the result of the determination is that the key value of the pixel of interest is greater than or equal to the threshold value (object pixel), the video signal of the pixel value read from the line buffer
5 (S26).

【0065】読み出した注目画素のキー値がしきい値未
満であるか否かを判定し(S21)、判定の結果、注目
画素のキー値がしきい値未満(背景画素)であれば、注
目画素に隣接する上下左右の4画素について、4画素の
輝度値の平均値を計算するための合計処理(S22〜S
23)を繰り返す(ループD)。
It is determined whether or not the read key value of the pixel of interest is less than the threshold value (S21). If the result of determination is that the key value of the pixel of interest is less than the threshold value (background pixel), Total processing for calculating the average value of the luminance values of the four pixels for the four pixels (upper, lower, left, and right) adjacent to the pixel (S22 to S22)
23) is repeated (loop D).

【0066】つまり、フィルタ処理部65は、隣接画素
の画素値のうち輝度値をラインバッファ64から読み出
し(S22)、読み出した輝度値をカウンタに加算する
(S23)。
That is, the filter processing unit 65 reads the luminance value of the pixel values of the adjacent pixels from the line buffer 64 (S22), and adds the read luminance value to the counter (S23).

【0067】フィルタ処理部65は、注目画素に隣接す
る上下左右の4画素について処理を終了すると、4画素
分の輝度値が加算されたカウンタの値を「4」で除算し
て平均値を求め(S24)、注目画素の輝度値を平均値
に置き換えた後(S25)、カウンタをクリアし、輝度
値が前記平均値に置き換えられた映像信号を画素選択部
15に出力する(S26)。
When the filter processing section 65 completes the processing for the four pixels in the upper, lower, left and right directions adjacent to the pixel of interest, the value of the counter to which the luminance values of the four pixels have been added is divided by “4” to obtain an average value. (S24) After replacing the luminance value of the target pixel with the average value (S25), the counter is cleared, and the video signal whose luminance value has been replaced with the average value is output to the pixel selection unit 15 (S26).

【0068】フィルタ処理部65は、当該映像ブロック
内のすべての画素について上記処理が終了すると、ライ
ンバッファ64に新たな映像ブロック内の3ライン分の
画素のデータが書き込まれるのを待って、新たな映像ブ
ロック内の画素のデータにつき上記フローチャートに示
した処理を繰り返す。
When the above processing is completed for all the pixels in the video block, the filter processing section 65 waits for the data of the pixels for three lines in the new video block to be written in the line buffer 64, and then starts the new processing. The process shown in the above flowchart is repeated for pixel data in a proper video block.

【0069】以上のように画素補償部14によれば、物
体画素と背景画素とを含む映像ブロックにおいて、背景
画素の画素値が物体画素の平均画素値で置換されるの
で、映像ブロック内の画素値が均一化され、物体画素と
背景画素との境界部分の映像信号の高周波成分が映像ブ
ロック単位の画素値変化による周波数にまで低減される
という効果がある。
As described above, according to the pixel compensating unit 14, in a video block including an object pixel and a background pixel, the pixel value of the background pixel is replaced with the average pixel value of the object pixel. This has the effect that the values are made uniform and the high-frequency component of the video signal at the boundary between the object pixel and the background pixel is reduced to the frequency due to the pixel value change in video block units.

【0070】さらに画素補償部14によれば、当該映像
ブロック内の背景画素は、それに隣接する4画素の輝度
値の平均値で置換されるので、物体画素と隣接する背景
画素において隣接する物体画素の画素値が反映されるの
で、隣接する物体画素との画素値のずれの少ない代替画
素値で背景画素を補間することができ、ひいては画質の
劣化を低減した、より品質の高い画像圧縮を行うことが
できるという効果がある。
Further, according to the pixel compensating unit 14, the background pixel in the video block is replaced by the average value of the luminance values of the four pixels adjacent to the background pixel. Is reflected, the background pixel can be interpolated with a substitute pixel value with a small deviation of the pixel value from the adjacent object pixel, and a higher quality image compression with reduced image quality deterioration can be performed. There is an effect that can be.

【0071】図11は、図7に示された画素識別部72
と物体画素平均値計算部73との処理手順の一例を示す
フローチャートである。なお、以下、図13(a)と図
14(a)とにそれぞれ示された各画素の輝度値とキー
値とを用いて、画素識別部72と物体画素平均値計算部
73との処理手順を具体的に説明する。
FIG. 11 is a block diagram of the pixel identifying section 72 shown in FIG.
9 is a flowchart illustrating an example of a processing procedure between an object pixel average value calculation unit 73. Hereinafter, the processing procedure of the pixel discriminating unit 72 and the object pixel average value calculating unit 73 using the luminance value and the key value of each pixel shown in FIGS. 13A and 14A, respectively. Is specifically described.

【0072】図13(a)は、画素補償部14の入力デ
ータのうち各画素の輝度値の一例を示す図である。図1
3(b)は、図13(a)に示された入力データに基づ
いて表示される入力画像の輝度を示す図である。図13
(a)において、輝度値Yは0≦Y≦255の値をとる
ものとする。図13(b)では、8×8画素の映像ブロ
ックについて、網掛け部分が輝度値Y=255の画素を
表しており、斜線部分が輝度値Y=150の画素、それ
以外は輝度値Y=0の画素を表している。図13(b)
に視覚的に示すように、当該ブロックにおいては、輝度
値が「0」の画素に隣接して輝度値が「255」の画素
が含まれており、非常に周波数の高い画像となってい
る。
FIG. 13A is a diagram showing an example of the luminance value of each pixel in the input data of the pixel compensating section 14. FIG.
FIG. 3B is a diagram showing the luminance of an input image displayed based on the input data shown in FIG. FIG.
In (a), the luminance value Y takes a value of 0 ≦ Y ≦ 255. In FIG. 13B, in the video block of 8 × 8 pixels, a shaded portion represents a pixel having a luminance value of Y = 255, a hatched portion represents a pixel having a luminance value of Y = 150, and the other portions represent a luminance value of Y = 255. 0 represents a pixel. FIG. 13 (b)
As shown visually in FIG. 5, in the block, a pixel having a luminance value of "255" is included adjacent to a pixel having a luminance value of "0", and the image has a very high frequency.

【0073】図14(a)は、画素補償部14の入力デ
ータのうち各画素の色差から計算されたキー値の一例を
示す図である。図14(b)は、図14(a)に示され
たキー値から、しきい値を「100」として得られたパ
ディングマップ保持部74のパディングマップを示す図
である。図14(a)に示されたキー値は、例えばクロ
マキーにおいて背景を示すパラメータを青色に設定した
ときに、各画素の色相が青の色相からどれだけ離れてい
るかを「0」から「255」までの値で示したものであ
る。この場合、キー値は、「255」に近いほどその画
素の色相が青色の反対色である肌色に近く、「0」に近
いほどその画素の色相が青色に近いことを示している。
FIG. 14A is a diagram showing an example of a key value calculated from the color difference of each pixel in the input data of the pixel compensating section 14. FIG. 14B is a diagram showing a padding map of the padding map holding unit 74 obtained by setting the threshold value to “100” from the key values shown in FIG. The key value shown in FIG. 14A indicates how far the hue of each pixel is from the blue hue from “0” to “255”, for example, when the parameter indicating the background in the chroma key is set to blue. It is shown by the value up to. In this case, as the key value is closer to "255", the hue of the pixel is closer to the skin color which is the opposite color of blue, and as the key value is closer to "0", the hue of the pixel is closer to blue.

【0074】図14(b)に示されたパディングマップ
において、各画素内のマップ値「0」は、その画素が物
体画素であることを示し、マップ値「1」は、その画素
が背景画素(パディング画素)であることを示してい
る。また、図14(b)に示されたパディングマップ
は、当該映像ブロックの大きさをN×N画素とした場合
には、映像ブロックのさらに外周1画素分のマップ値を
すべて「1」として、(N+2)×(N+2)画素の大
きさで作成される。ここでは映像ブロックの大きさを8
×8画素としているので、パディングマップの大きさは
10×10画素になる。なお、ここではパディングマッ
プ保持部74にこの大きさのパディングマップを保持す
るとしているが、実際にはこの大きさのパディングマッ
プを作成する必要はなく、単に計算上、映像ブロックの
外周の1画素はパディング画素であるとして2次元フィ
ルタリングを行うとしてもよい。
In the padding map shown in FIG. 14B, a map value “0” in each pixel indicates that the pixel is an object pixel, and a map value “1” indicates that the pixel is a background pixel. (Padding pixel). In the padding map shown in FIG. 14B, when the size of the video block is set to N × N pixels, the map value of one pixel further around the video block is set to “1”. It is created with a size of (N + 2) × (N + 2) pixels. Here, the size of the video block is 8
Since the size is × 8 pixels, the size of the padding map is 10 × 10 pixels. Although the padding map holding unit 74 holds a padding map of this size here, it is not necessary to actually create a padding map of this size. May be subjected to two-dimensional filtering assuming that they are padding pixels.

【0075】図7に示した画素補償部14には、映像ブ
ロック内のN×N(ここではN=8)個の各画素につ
き、図13(a)に示された輝度値とそれに対応する2
つの色差と、図14(a)に示されたキー値とが、バッ
ファメモリ71と画素識別部72とに並行して入力され
る。画素識別部72と物体画素平均値計算部73とは、
N×N画素の映像ブロック内のすべての画素につき、前
述した走査の順に、順次以下の輝度値の平均値計算処理
とパディングマップ生成処理と(S31〜S35)を並
行して繰り返す(ループA)。
In the pixel compensating section 14 shown in FIG. 7, for each of N × N (here, N = 8) pixels in the video block, the luminance values shown in FIG. 2
The two color differences and the key values shown in FIG. 14A are input to the buffer memory 71 and the pixel identification unit 72 in parallel. The pixel identification unit 72 and the object pixel average value calculation unit 73
The following average value calculation processing and padding map generation processing (S31 to S35) are sequentially repeated in parallel in the above-described scanning order for all the pixels in the video block of N × N pixels (loop A). .

【0076】つまり、画素補償部14に入力された各画
素の画素値とキー値とがバッファメモリ71に順次書き
込まれるのと並行して画素識別部72に入力されるの
で、画素識別部72は、まず、入力された画素のキー値
とユーザの入力に係るしきい値とを比較し(S31)、
比較の結果、その画素のキー値が前記しきい値未満(背
景画素)であれば、その画素がパディング画素であるこ
とを示すマップ値「1」を、その画素の座標位置に対応
付けてパディングマップ保持部74に書き込む(S3
2)。
That is, the pixel value and the key value of each pixel input to the pixel compensating unit 14 are input to the pixel identifying unit 72 in parallel with the sequential writing to the buffer memory 71. First, the key value of the input pixel is compared with the threshold value related to the input by the user (S31),
As a result of the comparison, if the key value of the pixel is smaller than the threshold value (background pixel), the padding is performed by associating the map value “1” indicating that the pixel is a padding pixel with the coordinate position of the pixel. Write to the map holding unit 74 (S3
2).

【0077】例えば、図14(a)に示された座標値
(0、0)の画素は、キー値が「46」であり、しきい
値が「100」であるので、キー値<しきい値となり
(S31)、パディング画素である。従って、画素識別
部72は、座標値(0、0)の画素のマップ値として
「1」をパディングマップ保持部74に書き込む(S3
2)。一方ではこれと並行して、座標値(0、0)の画
素の画素値とキー値とがバッファメモリ71に書き込ま
れる。
For example, for the pixel having the coordinate value (0, 0) shown in FIG. 14A, the key value is “46” and the threshold value is “100”, so that the key value <threshold. (S31), which is a padding pixel. Accordingly, the pixel identifying unit 72 writes “1” into the padding map holding unit 74 as the map value of the pixel having the coordinate value (0, 0) (S3).
2). On the other hand, in parallel with this, the pixel value and the key value of the pixel having the coordinate value (0, 0) are written into the buffer memory 71.

【0078】同様にして、例えば、図14(a)に示さ
れた座標値(1、0)の画素は、キー値が「52」で、
しきい値が「100」であるので、キー値<しきい値と
なり(S31)、パディング画素であることがわかる。
これに対し、画素識別部72は、座標値(1、0)の画
素のマップ値として「1」をパディングマップ保持部7
4に書き込む(S32)。一方で、パディングマップ保
持部74への書き込みと並行して、座標値(1、0)の
画素の画素値とキー値とがバッファメモリ71に書き込
まれる。以下、キー値が「100」未満の画素について
は上記と同様の処理が行われる。
Similarly, for example, the pixel having the coordinate value (1, 0) shown in FIG.
Since the threshold value is “100”, the key value <the threshold value (S31), indicating that the pixel is a padding pixel.
On the other hand, the pixel identifying unit 72 sets “1” as the map value of the pixel having the coordinate value (1, 0) as the padding map holding unit 7.
4 (S32). On the other hand, in parallel with the writing to the padding map holding unit 74, the pixel value and the key value of the pixel having the coordinate value (1, 0) are written to the buffer memory 71. Hereinafter, the same processing as described above is performed on the pixel whose key value is less than “100”.

【0079】画素識別部72は、入力された画素のキー
値とユーザの入力に係るしきい値とを比較し(S3
1)、その結果、画素のキー値が前記しきい値以上(物
体画素)であれば、その画素が物体画素であることを示
すマップ値「0」を、その画素の座標位置に対応付けて
パディングマップ保持部74に書き込み(S33)、入
力された画素値を物体画素平均値計算部73に出力す
る。次いで物体画素平均値計算部73は、画素識別部7
2から入力されたその画素の輝度値をカウンタに加算し
た後(S34)、その画素数をカウントする(S3
5)。
The pixel identifying section 72 compares the key value of the input pixel with a threshold value related to the input by the user (S3).
1) As a result, if the key value of the pixel is equal to or larger than the threshold value (object pixel), a map value “0” indicating that the pixel is an object pixel is associated with the coordinate position of the pixel. The data is written into the padding map holding unit 74 (S33), and the input pixel value is output to the object pixel average value calculating unit 73. Next, the object pixel average value calculation unit 73
After adding the luminance value of the pixel input from Step 2 to the counter (S34), the number of pixels is counted (S3).
5).

【0080】例えば、図14(a)に示された座標値
(1、4)の画素については、キー値が「148」であ
り、しきい値が「100」であるので、しきい値≦キー
値となり(S31)、この画素が物体画素であることが
わかる。従って、画素識別部72は、座標値(1、4)
の画素のマップ値として「0」をパディングマップ保持
部74に書き込む(S33)。ここで、この画素は物体
画素であるので、さらに以下の処理が行われる。すなわ
ち、物体画素平均値計算部73は、画素識別部72を経
て入力した座標値(1、4)の画素の画素値のうちか
ら、図13(a)に示された輝度値「255」を取得
し、取得した輝度値「255」を、輝度値を合計するカ
ウンタに加算し(S34)、画素数を「1」カウントア
ップする(S35)。一方ではこれと並行して、座標値
(1、4)の画素の画素値とキー値とがバッファメモリ
71に書き込まれる。
For example, for the pixel having the coordinate values (1, 4) shown in FIG. 14A, the key value is “148” and the threshold value is “100”. It becomes a key value (S31), and it can be seen that this pixel is an object pixel. Therefore, the pixel identifying unit 72 calculates the coordinate value (1, 4)
"0" is written to the padding map holding unit 74 as the map value of the pixel of (S33). Here, since this pixel is an object pixel, the following processing is further performed. That is, the object pixel average value calculation unit 73 converts the luminance value “255” shown in FIG. 13A from the pixel values of the pixels having the coordinate values (1, 4) input through the pixel identification unit 72. The acquired and acquired luminance value “255” is added to a counter for summing the luminance values (S34), and the number of pixels is counted up by “1” (S35). On the other hand, in parallel with this, the pixel value of the pixel having the coordinate value (1, 4) and the key value are written in the buffer memory 71.

【0081】以下、座標値(2、4)〜座標値(5、
4)のキー値が「100」以上の画素について、これと
同様の処理が行われる。
Hereinafter, the coordinate values (2, 4) to (5,
The same processing as described above is performed on the pixel having the key value of “100” or more in 4).

【0082】このようにして、N×N(図14(a)で
はN=8)画素の映像ブロックにつき、1画素分ずつ順
次、走査方向に各画素のパディングマップが作成され、
キー値が「100」以上の画素の輝度値が加算され、そ
の画素数がカウントされていくとともに、各画素の画素
値とキー値とがバッファメモリ71に書き込まれてい
く。N×N画素の映像ブロック内のすべての画素につき
処理が終了すると、具体的には図14(a)では座標値
(7、7)の画素につき上記の処理が終了すると、物体
画素平均値計算部73は、輝度値を合計するカウンタの
値をカウントした画素数で除算して物体画素の輝度値の
平均値を計算し、計算結果を代替画素供給部75に出力
する(S36)。
In this way, a padding map of each pixel is sequentially created in the scanning direction by one pixel for a video block of N × N (N = 8 in FIG. 14A) pixels,
The luminance values of the pixels whose key value is “100” or more are added, the number of pixels is counted, and the pixel value and the key value of each pixel are written into the buffer memory 71. When the processing is completed for all the pixels in the video block of N × N pixels, specifically, when the above processing is completed for the pixel having the coordinate value (7, 7) in FIG. The unit 73 calculates the average value of the brightness values of the object pixels by dividing the value of the counter for summing the brightness values by the number of counted pixels, and outputs the calculation result to the alternative pixel supply unit 75 (S36).

【0083】この結果、パディングマップ保持部74に
おいて、当該映像ブロック内のすべての画素につきパデ
ィング画素(背景画素)であるか物体画素であるかを示
す「0」または「1」が書き込まれたマップが完成さ
れ、物体画素平均値計算部73において物体画素の輝度
値の平均値が求められる。ここで、図13(a)に示さ
れた輝度値と図14(b)に示されたパディングマップ
とに基づいて、この映像ブロック内の物体画素の輝度値
の平均値を計算した場合、その値は228(端数切捨
て)である。物体画素平均値計算部73は、求められた
輝度値の平均値を代替画素供給部75に出力し、輝度値
の加算処理(S34)と画素数の計数処理(S35)と
で使用したカウンタをクリアする。また、物体画素の輝
度値の平均値が求められるのと並行して、当該映像ブロ
ック内のすべての画素につき、バッファメモリ71への
画素値とキー値との書き込みが完了する。
As a result, in the padding map holding unit 74, a map in which “0” or “1” indicating whether the pixel is a padding pixel (background pixel) or an object pixel is written for all pixels in the video block. Is completed, and the average value of the luminance values of the object pixels is obtained in the object pixel average value calculation unit 73. Here, based on the luminance value shown in FIG. 13A and the padding map shown in FIG. 14B, when the average value of the luminance values of the object pixels in this video block is calculated, The value is 228 (rounded down). The object pixel average value calculation unit 73 outputs the obtained average value of the luminance values to the substitute pixel supply unit 75, and uses the counter used in the luminance value addition processing (S34) and the pixel number counting processing (S35). clear. At the same time that the average of the luminance values of the object pixels is obtained, the writing of the pixel values and the key values to the buffer memory 71 is completed for all the pixels in the video block.

【0084】次いで、当該映像ブロックにつき、後段の
代替画素供給部75による以下のフローチャートに示す
処理が開始されるが、画素識別部72と物体画素平均値
計算部73とは、代替画素供給部75の2ライン分の処
理が終了するのを待って、新たなN×N画素の映像ブロ
ックにつき上記フローチャートに示した処理を繰り返
す。
Next, the processing shown in the following flowchart by the substitute pixel supply unit 75 at the subsequent stage is started for the video block. The pixel identification unit 72 and the object pixel average value calculation unit 73 include the substitute pixel supply unit 75 After the processing for two lines is completed, the processing shown in the above flowchart is repeated for a new video block of N × N pixels.

【0085】図12は、図7に示された代替画素供給部
75の処理手順の一例を示すフローチャートである。以
下、図13(a)と図14(b)とに示された各画素の
輝度値とマップ値とを用い、図15(a)の処理結果を
参照して、代替画素供給部75の処理手順を具体的に説
明する。図15(a)は、代替画素供給部75が図13
(a)に示された映像ブロックに対し、図14(b)に
示されたパディングマップを用いて2次元フィルタリン
グ処理した後の輝度値を示す図である。図15(b)
は、代替画素供給部75による2次元フィルタリング処
理後の輝度値を視覚的に示す図である。図15(c)
は、図15(b)に示された映像ブロック内の各画素の
輝度値とハッチングとの対応を示す図である。
FIG. 12 is a flowchart showing an example of the processing procedure of the alternative pixel supply unit 75 shown in FIG. Hereinafter, using the luminance value and the map value of each pixel shown in FIGS. 13A and 14B and referring to the processing result of FIG. The procedure will be specifically described. FIG. 15A shows that the alternative pixel supply unit 75
FIG. 15 is a diagram illustrating luminance values after two-dimensional filtering processing is performed on the video block illustrated in FIG. 14A using the padding map illustrated in FIG. FIG. 15 (b)
FIG. 14 is a diagram visually illustrating a luminance value after the two-dimensional filtering process performed by the alternative pixel supply unit 75. FIG. 15 (c)
FIG. 16 is a diagram showing a correspondence between a luminance value of each pixel in the video block shown in FIG. 15B and hatching.

【0086】代替画素供給部75は、物体画素平均値計
算部73によって求められた輝度値の平均値を保持し、
バッファメモリ71に書き込まれたN×N画素の映像ブ
ロック内のすべての画素につき、前述した走査の順に、
順次以下の2次元フィルタリング処理(S41〜S4
8)を繰り返す(ループB)。
The substitute pixel supply unit 75 holds the average value of the luminance values obtained by the object pixel average value calculation unit 73,
For all the pixels in the video block of N × N pixels written in the buffer memory 71, in the order of scanning described above,
The following two-dimensional filtering processing (S41 to S4
8) is repeated (loop B).

【0087】つまり、代替画素供給部75は、まず、前
述の走査の順に各画素に注目し(S41)、パディング
マップ保持部74のマップ値を参照して、注目画素がパ
ディング画素であるか否かを判定する(S42)。その
結果、注目画素がパディング画素であれば、注目画素に
隣接する上下左右の4画素につき、以下の隣接4画素の
輝度値の平均値を計算する処理(S43〜S46)を繰
り返す(ループC)。
That is, the substitute pixel supply unit 75 first pays attention to each pixel in the order of the above-described scanning (S41), and refers to the map value of the padding map holding unit 74 to determine whether the pixel of interest is a padding pixel. Is determined (S42). As a result, if the target pixel is a padding pixel, the following process of calculating the average value of the luminance values of the four adjacent pixels (S43 to S46) is repeated for the four pixels on the upper, lower, left, and right adjacent to the target pixel (loop C). .

【0088】つまり、代替画素供給部75は、パディン
グマップ保持部74のマップ値を参照して、隣接画素が
パディング画素であるか否かを判定し(S43)、パデ
ィング画素であれば、保持している輝度値の平均値をカ
ウンタに加算する(S44)。ステップS43の判定の
結果、隣接画素がパディング画素でなければ、バッファ
メモリ71からその隣接画素の輝度値を読み出して(S
45)、読み出した輝度値を前記カウンタに加算する
(S46)。
That is, the substitute pixel supply unit 75 determines whether or not the adjacent pixel is a padding pixel with reference to the map value of the padding map holding unit 74 (S43). The average value of the luminance values is added to the counter (S44). If the result of determination in step S43 is that the adjacent pixel is not a padding pixel, the luminance value of the adjacent pixel is read from the buffer memory 71 (S43).
45), The read luminance value is added to the counter (S46).

【0089】具体的には、まず代替画素供給部75は、
座標値(0、0)の画素に注目し、図14(b)に示さ
れたパディングマップを参照する。座標値(0、0)の
画素のマップ値は「1」であるので、パディング画素で
ある(S42)。従って、代替画素供給部75は、座標
値(0、0)の上下左右の隣接画素につき、以下のよう
にして輝度値の平均値を求める。
Specifically, first, the substitute pixel supply unit 75
Attention is paid to the pixel having the coordinate value (0, 0), and the padding map shown in FIG. Since the map value of the pixel having the coordinate value (0, 0) is "1", it is a padding pixel (S42). Therefore, the substitute pixel supply unit 75 calculates the average value of the luminance values for the adjacent pixels on the upper, lower, left, and right sides of the coordinate value (0, 0) as follows.

【0090】まず、注目画素である座標値(0、0)の
画素の上に位置する座標値(0、−1)の画素について
パディングマップを参照し、その画素がパディング画素
であるか否かを判定する(S43)。図14(b)にお
いて座標値(0、−1)の画素は、当該映像ブロックに
含まれない画素であるので、マップ値が「1」のパディ
ング画素である。パディング画素の輝度値は、図11の
ステップS36で計算された物体画素の輝度値の平均値
で置換される。従って、代替画素供給部75は、輝度値
を合計するカウンタに平均値「228」を加算する(S
44)。
First, the padding map is referred to for the pixel having the coordinate value (0, -1) located above the pixel having the coordinate value (0, 0), which is the target pixel, and whether or not the pixel is a padding pixel is determined. Is determined (S43). In FIG. 14B, the pixel having the coordinate value (0, -1) is a pixel that is not included in the video block, and is a padding pixel having a map value of “1”. The luminance value of the padding pixel is replaced with the average luminance value of the object pixel calculated in step S36 in FIG. Therefore, the substitute pixel supply unit 75 adds the average value “228” to the counter for summing the luminance values (S
44).

【0091】次いで、注目画素である座標値(0、0)
の右に位置する座標値(1、0)の画素についてパディ
ングマップを参照し、その画素がパディング画素である
か否かを判定する(S43)。図14(b)において座
標値(1、0)の画素は、マップ値が「1」であるので
パディング画素である。従って、代替画素供給部75
は、輝度値を合計するカウンタに平均値「228」を加
算する(S44)。
Next, the coordinate value (0, 0) which is the pixel of interest
The pixel with the coordinate value (1, 0) located to the right of is referred to the padding map, and it is determined whether or not the pixel is a padding pixel (S43). In FIG. 14B, the pixel having the coordinate value (1, 0) is a padding pixel because the map value is “1”. Therefore, the alternative pixel supply unit 75
Adds the average value "228" to the counter for summing the luminance values (S44).

【0092】次いで、注目画素である座標値(0、0)
の下に位置する座標値(0、1)の画素についてパディ
ングマップを参照し、その画素がパディング画素である
か否かを判定する(S43)。図14(b)において座
標値(0、1)の画素は、マップ値が「1」であるので
パディング画素である。従って、代替画素供給部75
は、輝度値を合計するカウンタに平均値「228」を加
算する(S44)。
Next, the coordinate value (0, 0) which is the pixel of interest
It is determined whether the pixel is a padding pixel by referring to the padding map for the pixel having the coordinate value (0, 1) located below (S43). In FIG. 14B, the pixel having the coordinate value (0, 1) is a padding pixel because the map value is “1”. Therefore, the alternative pixel supply unit 75
Adds the average value "228" to the counter for summing the luminance values (S44).

【0093】最後に、注目画素である座標値(0、0)
の画素の左に位置する座標値(−1、0)の画素につい
てパディングマップを参照し、その画素がパディング画
素であるか否かを判定する(S43)。図14(b)に
おいて座標値(−1、0)の画素は、当該映像ブロック
に含まれない画素であるので、マップ値が「1」のパデ
ィング画素である。従って、代替画素供給部75は、輝
度値を合計するカウンタに平均値「228」を加算する
(S44)。
Finally, the coordinate value (0, 0) which is the pixel of interest
The pixel with the coordinate value (-1, 0) located to the left of the pixel is referred to the padding map, and it is determined whether or not the pixel is a padding pixel (S43). In FIG. 14B, the pixel having the coordinate value (−1, 0) is a pixel that is not included in the video block, and is a padding pixel having a map value of “1”. Therefore, the substitute pixel supply unit 75 adds the average value “228” to the counter for summing the luminance values (S44).

【0094】注目画素に隣接する上下左右の4画素につ
いて処理が終了すると、代替画素供給部75は4画素分
の輝度値が加算されたカウンタの値を「4」で除算して
輝度値の平均値を求め、注目画素の輝度値を平均値に置
き換えた後(S47)、前記カウンタをクリアし、平均
値に置き換えられた輝度値を画素選択部15に出力する
(S48)。
When the processing is completed for the four pixels in the upper, lower, left and right directions adjacent to the pixel of interest, the substitute pixel supply unit 75 divides the value of the counter to which the luminance values of the four pixels are added by “4” and averages the luminance values. After obtaining the value and replacing the luminance value of the pixel of interest with the average value (S47), the counter is cleared and the luminance value replaced with the average value is output to the pixel selection unit 15 (S48).

【0095】具体的には、上記のように座標値(0、
0)の画素を注目画素とした場合、上下左右に隣接する
4画素はすべてパディング画素であるので、輝度値を合
計するカウンタの値は「912」となり、注目画素の隣
接4画素の輝度値の平均値は「228」となる。図15
(a)に示すように代替画素供給部75は、注目画素の
輝度値「0」を隣接4画素の輝度値の平均値「228」
で置換し(S47)、その輝度値「228」を画素選択
部15に出力する(S48)。
Specifically, as described above, the coordinate values (0,
When the pixel of 0) is set as the target pixel, the four pixels adjacent to the top, bottom, left, and right are all padding pixels, so the value of the counter for summing the luminance values is “912”, and the luminance value of the four adjacent pixels of the target pixel is The average value is “228”. FIG.
As illustrated in (a), the substitute pixel supply unit 75 sets the luminance value “0” of the target pixel to the average value “228” of the luminance values of the adjacent four pixels.
(S47), and outputs the luminance value “228” to the pixel selection unit 15 (S48).

【0096】以下、座標値(0、3)の注目画素までに
ついては、上記と同様にして隣接4画素の輝度値の平均
値「228」が求められ、前記平均値「228」で置換
された輝度値が画素選択部15に出力される。
Hereinafter, the average value "228" of the luminance values of the four adjacent pixels is obtained in the same manner as described above up to the target pixel of the coordinate values (0, 3), and the average value "228" is substituted. The luminance value is output to the pixel selection unit 15.

【0097】次いで、座標値(1、3)の画素に注目す
る。座標値(1、3)の画素がすでに説明した画素と異
なる点は、パディングマップを参照して分かるように、
隣接画素のあるものが物体画素であることである。座標
値(1、3)の画素に注目してパディングマップを参照
すると、マップ値が「1」であるので、当該注目画素は
パディング画素である(S42)。従って、代替画素供
給部75は、座標値(1、3)の上下左右の隣接画素に
つき、輝度値の平均値を求める。
Next, attention is paid to the pixel having the coordinate value (1, 3). The difference between the pixel having the coordinate values (1, 3) and the pixel described above can be understood by referring to the padding map.
Some of the adjacent pixels are object pixels. Referring to the padding map while focusing on the pixel having the coordinate value (1, 3), the pixel of interest is a padding pixel because the map value is “1” (S42). Therefore, the substitute pixel supply unit 75 calculates the average value of the luminance values for the adjacent pixels on the upper, lower, left, and right sides of the coordinate value (1, 3).

【0098】まず、座標値(1、3)の注目画素の上に
位置する座標値(1、2)の画素についてパディングマ
ップを参照し、その画素がパディング画素であるか否か
を判定する(S43)。図14(b)において座標値
(1、2)の画素は、マップ値が「1」であるのでパデ
ィング画素である。従って、代替画素供給部75は、輝
度値を合計するカウンタに平均値「228」を加算する
(S44)。
First, referring to the padding map for the pixel having the coordinate value (1, 2) located above the pixel of interest having the coordinate value (1, 3), it is determined whether or not the pixel is a padding pixel ( S43). In FIG. 14B, the pixel having the coordinate value (1, 2) is a padding pixel because the map value is “1”. Therefore, the substitute pixel supply unit 75 adds the average value “228” to the counter for summing the luminance values (S44).

【0099】次いで、注目画素の右に位置する座標値
(2、3)の画素について、その画素がパディング画素
であるか否かを判定する(S43)。図14(b)にお
いて座標値(2、3)の画素は、マップ値が「1」でパ
ディング画素であるので、代替画素供給部75は、輝度
値を合計するカウンタに平均値「228」を加算する
(S44)。
Next, it is determined whether or not the pixel having the coordinate value (2, 3) located to the right of the target pixel is a padding pixel (S43). In FIG. 14B, the pixel having the coordinate value (2, 3) is a padding pixel with a map value of “1”, so the alternative pixel supply unit 75 sets the average value “228” in the counter that sums the luminance values. It is added (S44).

【0100】さらに、注目画素の下に位置する座標値
(1、4)の画素について、その画素がパディング画素
であるか否かを判定する(S43)。図14(b)にお
いて座標値(1、4)の画素は、マップ値が「0」であ
るので物体画素である。従って、代替画素供給部75
は、バッファメモリ71から図13(a)に示す座標値
(1、4)の画素の輝度値「255」を読み出し(S4
5)、読み出した輝度値「255」を、輝度値を合計す
るカウンタに加算する(S46)。
Further, it is determined whether or not the pixel having the coordinate value (1, 4) located below the pixel of interest is a padding pixel (S43). In FIG. 14B, the pixel having the coordinate value (1, 4) is an object pixel because the map value is “0”. Therefore, the alternative pixel supply unit 75
Reads the luminance value “255” of the pixel having the coordinate value (1, 4) shown in FIG. 13A from the buffer memory 71 (S4).
5) Add the read luminance value “255” to the counter that sums the luminance values (S46).

【0101】最後に、注目画素の左に位置する座標値
(0、3)の画素について、その画素がパディング画素
であるか否かを判定する(S43)。図14(b)にお
いて座標値(0、3)の画素は、マップ値が「1」であ
るのでパディング画素である。従って、代替画素供給部
75は、輝度値を合計するカウンタに平均値「228」
を加算する(S44)。
Finally, it is determined whether or not the pixel having the coordinate value (0, 3) located to the left of the target pixel is a padding pixel (S43). In FIG. 14B, the pixel having the coordinate value (0, 3) is a padding pixel because the map value is “1”. Therefore, the substitute pixel supply unit 75 supplies the average value “228” to the counter that sums the luminance values.
Is added (S44).

【0102】上記のように座標値(1、3)の画素を注
目画素とした場合、輝度値を合計するカウンタの値は
「939」となり、注目画素の隣接4画素の輝度値の平
均値は「234」となる。図15(a)に示すように代
替画素供給部75は、注目画素の輝度値「255」を隣
接4画素の輝度値の平均値「234」で置換し(S4
7)、その映像信号を画素選択部15に出力する(S4
8)。
When the pixel having the coordinate value (1, 3) is set as the target pixel as described above, the value of the counter for summing the luminance values is “939”, and the average value of the luminance values of the four pixels adjacent to the target pixel is It becomes "234". As shown in FIG. 15A, the substitute pixel supply unit 75 replaces the luminance value “255” of the target pixel with the average luminance value “234” of the four adjacent pixels (S4).
7), and outputs the video signal to the pixel selection unit 15 (S4)
8).

【0103】さらに座標値(2、3)の画素に注目す
る。座標値(2、3)の画素が、すでに説明した画素と
異なる点は、隣接画素の輝度値が代替画素供給部75に
よって置換されていることである。
Further attention is paid to the pixel having the coordinate value (2, 3). The difference between the pixel having the coordinate value (2, 3) and the pixel described above is that the luminance value of the adjacent pixel is replaced by the alternative pixel supply unit 75.

【0104】座標値(2、3)の画素に注目した場合、
マップ値が「1」であるのでこの画素はパディング画素
である(S43)。この場合も、座標値(1、3)の画
素に注目した場合と同様、注目画素の上下左右に隣接す
る4画素の輝度値の平均値を求めるのであるが、注目画
素の左に隣接する座標値(1、3)の画素は、直前に輝
度値が「234」に置き換えられている。しかしここで
は、隣接画素がパディング画素である場合、その輝度値
として2次元フィルタリングによって置換された輝度値
を使用せず、物体画素平均値計算部73によって計算さ
れた平均値を一律に使用することとする。このようにし
た場合、座標値(2、3)の注目画素の下に隣接する座
標値(1、4)の画素のみが物体画素であるので、バッ
ファメモリ71から輝度値「255」を読み出して計算
すると、隣接4画素の平均値は「234」となる。図1
5(a)に示すように代替画素供給部75は、注目画素
の輝度値「255」を隣接4画素の輝度値の平均値「2
34」で置換し(S47)、その輝度値を画素選択部1
5に出力する(S48)。
When attention is paid to the pixel having the coordinate values (2, 3),
Since the map value is "1", this pixel is a padding pixel (S43). In this case, as in the case of focusing on the pixel having the coordinate value (1, 3), the average value of the luminance values of the four pixels adjacent to the target pixel in the vertical and horizontal directions is obtained. The luminance value of the pixel having the value (1, 3) has been replaced with “234” immediately before. However, here, when the adjacent pixel is a padding pixel, the average value calculated by the object pixel average value calculation unit 73 should be used uniformly without using the luminance value replaced by the two-dimensional filtering as the luminance value. And In this case, since only the pixel having the coordinate value (1, 4) adjacent to the target pixel having the coordinate value (2, 3) is the object pixel, the luminance value “255” is read out from the buffer memory 71 and read. Upon calculation, the average value of the four adjacent pixels is “234”. FIG.
As shown in FIG. 5A, the substitute pixel supply unit 75 sets the luminance value “255” of the target pixel to the average value “2” of the luminance values of the four adjacent pixels.
34 ”(S47), and the luminance value is replaced with the pixel selection unit 1
5 (S48).

【0105】以下、座標値(0、4)の画素まで、各画
素につき上記と同様にして上下左右の隣接4画素の輝度
値の平均値が求められ、その平均値で置換された輝度値
が画素選択部15に出力される(S47、S48)。
Hereinafter, the average value of the luminance values of the four adjacent pixels in the upper, lower, left and right directions is obtained for each pixel up to the pixel having the coordinate value (0, 4) in the same manner as described above, and the luminance value replaced by the average value is obtained. The data is output to the pixel selection unit 15 (S47, S48).

【0106】走査の順に映像ブロック内の各画素に注目
して(S41)、パディングマップ保持部74のマップ
値を参照し、注目画素がパディング画素であるか否かを
判定(S42)した結果、注目画素がパディング画素で
なければ、代替画素供給部75は、その画素の輝度値を
バッファメモリ71から読み出して(S49)、画素選
択部15に出力する(S48)。
Attention is paid to each pixel in the video block in the order of scanning (S41), and it is determined whether or not the pixel of interest is a padding pixel by referring to the map value of the padding map holding unit 74 (S42). If the target pixel is not a padding pixel, the substitute pixel supply unit 75 reads the luminance value of the pixel from the buffer memory 71 (S49) and outputs the luminance value to the pixel selection unit 15 (S48).

【0107】具体的には、次の座標値(1、4)の画素
については、図14(b)に示されたパディングマップ
を参照すると、マップ値が「0」であるので物体画素で
ある(S42)。代替画素供給部75は、物体画素につ
いては2次元フィルタリングを行わず、バッファメモリ
71から座標値(1、4)の画素の輝度値「255」を
読み出し(S41)、図15(a)に示すようにその輝
度値を画素選択部15に出力する(S48)。以下、図
15(a)のように、座標値(5、4)の画素までは上
記と同様に、代替画素供給部75によってバッファメモ
リ71から読み出された輝度値「255」、「25
5」、「150」および「150」が順次画素選択部1
5に出力される。また、走査の順に、次の座標値(6、
4)、座標値(7、4)および座標値(0、5)の各画
素の2次元フィルタリングの方法は、すでに説明したと
おりである。
Specifically, referring to the padding map shown in FIG. 14B, the pixel having the next coordinate value (1, 4) is an object pixel because the map value is "0". (S42). The substitute pixel supply unit 75 does not perform the two-dimensional filtering on the object pixel, reads out the luminance value “255” of the pixel having the coordinate value (1, 4) from the buffer memory 71 (S41), and shows it in FIG. Thus, the luminance value is output to the pixel selection unit 15 (S48). Hereinafter, as shown in FIG. 15A, up to the pixel having the coordinate value (5, 4), the luminance values “255” and “25” read from the buffer memory 71 by the substitute pixel supply unit 75 in the same manner as described above.
5 ”,“ 150 ”and“ 150 ”are sequentially in the pixel selection unit 1
5 is output. Also, in the order of scanning, the next coordinate value (6,
The method of two-dimensional filtering of each pixel of 4), coordinate values (7, 4) and coordinate values (0, 5) is as described above.

【0108】次いで、座標値(1、5)の画素に注目す
る。座標値(1、5)の画素が前述の画素と異なる点
は、隣接画素のうち2つが物体画素であるという点であ
る。注目画素のマップ値は「1」でパディング画素であ
る。この注目画素について上下左右の隣接4画素の平均
値を求め2次元フィルタリングを行う場合、注目画素の
下と左とに隣接する2画素はパディング画素であるの
で、その輝度値として、すでに求められている物体画素
の輝度値の平均値を用いるためバッファメモリ71を参
照する必要はない。これに対し、注目画素の上と右とに
隣接する2画素、すなわち座標値(1、4)の画素と座
標値(2、5)の画素とは、それぞれマップ値が「0」
で物体画素であるので、座標値(1、4)と座標値
(2、5)とのそれぞれの画素についてバッファメモリ
71を参照して、輝度値を読み出すことが必要になる。
すなわち、バッファメモリ71を2回参照しなければな
らないことになる。この場合、下と左とに隣接する2画
素の輝度値は「228」であり、上と右とに隣接する2
画素の輝度値は、図13(a)に示すようにそれぞれ
「255」であるので、輝度値を合計するカウンタの値
は「966」となり、前記隣接4画素の輝度値の平均値
は「241」となる。代替画素供給部75は、図15
(a)に示すように座標値(1、5)の画素の輝度値を
平均値「241」で置換して、その輝度値を画素選択部
15に出力する。以下、当該映像ブロックのすべての画
素につき、前述の方法で2次元フィルタリングが行わ
れ、輝度値が置換される。
Next, attention is paid to the pixel having the coordinate value (1, 5). The pixel having the coordinate value (1, 5) is different from the above-described pixel in that two of the adjacent pixels are object pixels. The map value of the target pixel is “1” and is a padding pixel. When two-dimensional filtering is performed on the target pixel by calculating the average value of the four adjacent pixels on the upper, lower, left, and right sides, the two pixels adjacent to the lower and left sides of the target pixel are padding pixels. It is not necessary to refer to the buffer memory 71 because the average value of the luminance values of the object pixels is used. On the other hand, two pixels adjacent to the target pixel above and to the right, that is, the pixel having the coordinate values (1, 4) and the pixel having the coordinate values (2, 5) have map values of “0”, respectively.
It is necessary to read the luminance value of each pixel of the coordinate value (1, 4) and the coordinate value (2, 5) by referring to the buffer memory 71.
That is, it is necessary to refer to the buffer memory 71 twice. In this case, the luminance value of the two pixels adjacent to the bottom and left is “228”, and the luminance value of the two pixels adjacent to the top and right is
Since the luminance value of each pixel is “255” as shown in FIG. 13A, the value of the counter for summing the luminance values is “966”, and the average value of the luminance values of the four adjacent pixels is “241”. ". The alternative pixel supply unit 75 is configured as shown in FIG.
As shown in (a), the luminance value of the pixel having the coordinate value (1, 5) is replaced with the average value “241”, and the luminance value is output to the pixel selection unit 15. Hereinafter, two-dimensional filtering is performed on all the pixels of the video block by the above-described method, and the luminance value is replaced.

【0109】N×N画素の映像ブロック内のすべての画
素につき処理が終了すると、代替画素供給部75は新た
なN×N画素の映像ブロックについて上記フローチャー
トに示した処理を繰り返す。
When the processing is completed for all the pixels in the video block of N × N pixels, the substitute pixel supply section 75 repeats the processing shown in the above flowchart for the video block of new N × N pixels.

【0110】図15(b)のように、代替画素供給部7
5によってパディングおよび2次元フィルタリングが行
われた映像ブロックの映像は、図13(b)に示した入
力時の映像に比べると、背景画素全体に輝度値が補間さ
れていることが分かる。しかも、2次元フィルタリング
により、物体画素に隣接するパディング画素において、
物体画素の画素値が反映されており、より精度よく画質
が保存されているといえる。
As shown in FIG. 15B, the alternative pixel supply unit 7
It can be seen that, in the video of the video block on which padding and two-dimensional filtering have been performed according to No. 5, the luminance value is interpolated over the entire background pixel as compared with the video at the time of input shown in FIG. Moreover, by two-dimensional filtering, padding pixels adjacent to the object pixel
Since the pixel value of the object pixel is reflected, it can be said that the image quality is stored with higher accuracy.

【0111】以上のように、図6に示したフィルタ処理
部65がパディング画素に2次元フィルタリングを施す
場合、各パディング画素の周囲4画素のデータにつきラ
インバッファ64を常に参照しなければならないが、図
7に示した代替画素供給部75によれば、パディングマ
ップ保持部74において保持されたパディング画素の周
囲4画素の状態(マップ値)を参照することで、バッフ
ァメモリ71の参照回数を大幅に減らすことができる。
ラインバッファ64及びバッファメモリ71に格納され
ているデータは一般的に多値であり、パディングマップ
保持部74に保持されているデータは2値であるため、
少ないデータ量を参照することで2次元フィルタリング
処理を実行することができ、画像メモリにアクセスする
ためのバス帯域を有効に利用することができる。これに
よってさらに、画像オブジェクト素材生成装置10の消
費電力を大幅に低減することができるという効果があ
る。
As described above, when the filter processing unit 65 shown in FIG. 6 performs two-dimensional filtering on padding pixels, the line buffer 64 must always be referred to for data of four pixels surrounding each padding pixel. According to the alternative pixel supply unit 75 shown in FIG. 7, the number of references to the buffer memory 71 can be greatly increased by referring to the states (map values) of the four pixels surrounding the padding pixels held in the padding map holding unit 74. Can be reduced.
The data stored in the line buffer 64 and the buffer memory 71 is generally multi-valued, and the data stored in the padding map storage 74 is binary.
By referring to a small amount of data, two-dimensional filtering can be performed, and a bus band for accessing the image memory can be effectively used. Thereby, there is an effect that the power consumption of the image object material generation device 10 can be significantly reduced.

【0112】また、図7ではパディングマップを生成す
ることによってパディング画素への代替画素値補償処理
と同様の結果を得ることができる上、パディングマップ
の生成と平均値計算処理とを並行して処理しているた
め、図6に示された画素補償部14がパディング画素へ
の代替画素値補償処理と平均値計算処理とをシリアルに
行っているのに比べると、より高速に結果を得ることが
できる。また、各画素につき画素値とキー値とを保持す
るラインバッファ64に比べて、パディングマップ保持
部74は大きな記憶容量を要求されないため、画像オブ
ジェクト素材生成装置10の回路規模を削減できるとい
う効果がある。
In FIG. 7, by generating a padding map, it is possible to obtain the same result as the alternative pixel value compensation processing for padding pixels. In addition, the generation of the padding map and the average value calculation processing are performed in parallel. Therefore, the result can be obtained faster than in the case where the pixel compensator 14 shown in FIG. 6 performs the substitute pixel value compensation process for padding pixels and the average value calculation process serially. it can. In addition, the padding map holding unit 74 does not require a large storage capacity as compared with the line buffer 64 that holds the pixel value and the key value for each pixel, so that the circuit scale of the image object material generation device 10 can be reduced. is there.

【0113】図16は、代替画素供給部75の2次元フ
ィルタリングにおけるバッファメモリ71の参照回数を
前記映像ブロックの画素ごとに示す図である。以上に説
明したように、代替画素供給部75が前記2次元フィル
タリングを行う場合において、注目画素に隣接する画素
の輝度値をバッファメモリ71から読み出す必要が生じ
るのは、注目画素がパディング画素であって、かつ、物
体画素に隣接している場合のみである。また、注目画素
がパディング画素か否かはパディングマップを参照すれ
ばよいので、バッファメモリ71を参照する必要がな
い。図のように、当該映像ブロック内で隣接画素の輝度
値につきバッファメモリ71が参照される回数は、座標
値(1、3)から(5、3)までの各画素と、座標値
(0、4)、(6、4)、(0、7)および(6、7)
の各画素とにおいて、それぞれ1回である。また、座標
値(1、5)、(5、5)、(1、6)および(5、
6)の各画素においては、隣接する2画素が物体画素で
あるため、それぞれ2回参照される。図において斜線で
示す物体画素の部分は、2次元フィルタリングを行わな
いので、参照回数は0回である。
FIG. 16 is a diagram showing the number of times the buffer memory 71 is referred to in the two-dimensional filtering of the substitute pixel supply unit 75 for each pixel of the video block. As described above, when the alternative pixel supply unit 75 performs the two-dimensional filtering, it is necessary to read the luminance value of a pixel adjacent to the target pixel from the buffer memory 71 because the target pixel is a padding pixel. And only when it is adjacent to the object pixel. Further, since it is sufficient to refer to the padding map as to whether or not the target pixel is a padding pixel, it is not necessary to refer to the buffer memory 71. As shown in the figure, the number of times the buffer memory 71 is referred to for the luminance value of an adjacent pixel in the video block depends on each pixel from coordinate values (1, 3) to (5, 3) and the coordinate value (0, 4), (6, 4), (0, 7) and (6, 7)
Once for each pixel. Also, coordinate values (1, 5), (5, 5), (1, 6) and (5,
In each of the pixels in 6), two adjacent pixels are object pixels, and thus each pixel is referred to twice. In the figure, since the two-dimensional filtering is not performed on the portion of the object pixel indicated by oblique lines, the number of references is zero.

【0114】これと比較して、図6に示された画素補償
部14では、物体画素については2次元フィルタリング
を行わないので上記と同様に隣接画素の輝度値の参照回
数は0回であるが、その画素が物体画素か否かを判断す
るために注目画素のキー値をラインバッファ64から読
み出してくる必要がある。また、背景画素については、
各注目画素が物体画素か否かを判断するために注目画素
のキー値を読み出してくる必要があり、さらにその隣接
4画素の輝度値をラインバッファ64から読み出してこ
なければならない。
In comparison with this, the pixel compensator 14 shown in FIG. 6 does not perform two-dimensional filtering on the object pixel, so that the number of times of reference to the luminance value of the adjacent pixel is 0 as described above. In order to determine whether or not the pixel is an object pixel, it is necessary to read out the key value of the pixel of interest from the line buffer 64. For background pixels,
In order to determine whether or not each pixel of interest is an object pixel, it is necessary to read out the key value of the pixel of interest, and it is necessary to read out the luminance values of four adjacent pixels from the line buffer 64.

【0115】従って、上記のように図7に示された画素
補償部14によれば、図6に示された画素補償部14に
比べて、画像メモリの参照回数を大幅に低減することが
できるという効果がある。
Therefore, according to the pixel compensating unit 14 shown in FIG. 7 as described above, the number of times of referring to the image memory can be greatly reduced as compared with the pixel compensating unit 14 shown in FIG. This has the effect.

【0116】これに対し、図7に示された画素補償部1
4では、注目画素の隣接4画素についてバッファメモリ
71から画素値を読み出す回数が減った一方で、パディ
ングマップ保持部74からマップ値を読み出すという新
たな処理が増えているのであるが、マップ値は高々1ビ
ットのデータであるのに対し、輝度値および色差はそれ
ぞれ8ビットのデータである。従って、前記両方の画素
補償部14を比較すると、バッファメモリ71と代替画
素供給部75との間では、ラインバッファ64とフィル
タ処理部65との間に比べて、画像メモリにアクセスす
るバス帯域を大幅に節減することができていることが分
かる。さらにここで、代替画素供給部75がバッファメ
モリ71から画素値を読み出す回数が減少した分、同じ
回数だけ、物体画素平均値計算部73からの平均値の読
み出しが発生しており、その平均値を表すビット数もそ
れぞれ8ビットである。しかし、物体画素平均値計算部
73からの平均値の読み出しには、画像メモリから画素
値を読み出す場合のようにアドレスを必要としないた
め、代替画素供給部75はアドレス信号を発生する必要
もなく、アドレス値を画像メモリに送信する分、バス帯
域を低減することができる。この結果、節減されたバス
帯域を他の処理にまわすこともできるし、そうしない場
合には、画像オブジェクト素材生成装置10の消費電力
を十分低減することができるという効果がある。
On the other hand, the pixel compensator 1 shown in FIG.
In No. 4, while the number of times of reading pixel values from the buffer memory 71 for the four pixels adjacent to the pixel of interest has decreased, new processing of reading map values from the padding map holding unit 74 has increased. The luminance value and the color difference are each 8-bit data, while the data is 1-bit data at most. Therefore, when comparing the two pixel compensating units 14, the buffer band between the buffer memory 71 and the substitute pixel supplying unit 75 for accessing the image memory is smaller than that between the line buffer 64 and the filtering unit 65. It can be seen that significant savings have been made. Further, here, as the number of times that the substitute pixel supply unit 75 reads the pixel value from the buffer memory 71 is reduced, the average value is read from the object pixel average value calculation unit 73 by the same number of times. Are also 8 bits each. However, the readout of the average value from the object pixel average value calculation unit 73 does not require an address unlike the case of reading out a pixel value from an image memory, so that the alternative pixel supply unit 75 does not need to generate an address signal. Since the address value is transmitted to the image memory, the bus bandwidth can be reduced. As a result, the reduced bus bandwidth can be used for other processing. Otherwise, the power consumption of the image object material generation device 10 can be sufficiently reduced.

【0117】図17は、画像オブジェクト素材生成装置
10の製品への適用例を示す図である。PCカード19
0は、図1に示した本実施の形態の画像オブジェクト素
材生成装置10をロジック回路として実装したカード基
板である。パーソナルコンピュータ191は、CPUな
どからなる処理部、ハードディスクなどからなる記憶
部、カードスロット192などの外部接続部、タッチパ
ッド193などからなる操作部および液晶表示パネル1
94などからなる表示部などを備える。パーソナルコン
ピュータ191のハードディスクには、デジタルカメラ
やスキャナなどによって取り込まれた写真などの画像を
編集するための画像編集プログラムや上記PCカード1
90を画像編集用のエンジンとして使用するためのドラ
イバソフトなどがインストールされている。カードスロ
ット192は、PCカード190をパーソナルコンピュ
ータ191に挿入するための挿入口である。タッチパッ
ド193は、液晶表示パネル194に表示される画像上
のポインタを操作するための操作部である。液晶表示パ
ネル194は、編集中の画像や文章、各種プログラムに
よるユーザへの操作指示や動作状態などを表示する表示
部である。
FIG. 17 is a diagram showing an example of application of the image object material generating apparatus 10 to a product. PC card 19
Reference numeral 0 denotes a card board on which the image object material generation device 10 according to the present embodiment shown in FIG. 1 is mounted as a logic circuit. The personal computer 191 includes a processing unit including a CPU, a storage unit including a hard disk, an external connection unit such as a card slot 192, an operation unit including a touch pad 193, and the like.
And a display unit made up of 94 or the like. The hard disk of the personal computer 191 stores an image editing program for editing an image such as a photograph captured by a digital camera or a scanner, or the PC card 1.
Driver software and the like for using the image processing engine 90 as an image editing engine are installed. The card slot 192 is an insertion slot for inserting the PC card 190 into the personal computer 191. The touch pad 193 is an operation unit for operating a pointer on an image displayed on the liquid crystal display panel 194. The liquid crystal display panel 194 is a display unit that displays an image or text being edited, an operation instruction to a user by various programs, an operation state, and the like.

【0118】ユーザは、画像編集プログラムとPCカー
ド190とを用いることで、パーソナルコンピュータ1
91上で、外部から取り込まれた画像のフレームサイズ
を拡大/縮小したり、画像中のオブジェクトだけを拡大
/縮小して別の画像に貼り付けたりするような編集を高
速に行うことができる。
The user can use the personal computer 1 by using the image editing program and the PC card 190.
On the 91, editing such as enlarging / reducing the frame size of an image fetched from the outside or enlarging / reducing only the object in the image and pasting it to another image can be performed at high speed.

【0119】以上のように、本実施の形態の画像オブジ
ェクト素材生成装置によれば、入力映像信号を画像オブ
ジェクト素材と背景素材に選択して出力することがで
き、画像オブジェクト素材を出力する場合、パディング
処理を施した映像信号を出力する。このパディング処理
は従来の方法よりも少ない工程で行われ、メモリの参照
回数も少なく、メモリ帯域を有効に使用することができ
る。パディング処理を施した映像ブロック間の不連続性
も改善することができ、フレームサイズ変換と出力映像
の選択を含めたハードウェアによるリアルタイム処理が
可能となる。
As described above, according to the image object material generating apparatus of the present embodiment, an input video signal can be selected and output as an image object material and a background material. Outputs a video signal that has been padded. This padding process is performed in fewer steps than the conventional method, the number of times of referencing the memory is small, and the memory bandwidth can be used effectively. Discontinuity between padded video blocks can also be improved, and hardware real-time processing including frame size conversion and output video selection can be performed.

【0120】以上、本発明に係る画像オブジェクト素材
生成装置について実施の形態に基づいて説明したが、本
発明はこの実施の形態に限定されるものではない。
The image object material generating apparatus according to the present invention has been described based on the embodiments. However, the present invention is not limited to the embodiments.

【0121】例えば、上記本実施の形態では、各映像ブ
ロック内の背景画素をパディング画素としたが、各映像
ブロック内の物体画素をパディング画素としてもよい。
また、上記実施の形態では、パディング画素の画素値を
物体画素の画素値の平均値で置換するとしたが、背景画
素の画素値の平均値で置換するようにしても良い。いず
れの手法であっても、ブロック単位で、映像信号の変化
を平滑化し、高い品質でパディング処理を行うことがで
きる。
For example, in the present embodiment, the background pixels in each video block are used as padding pixels, but the object pixels in each video block may be used as padding pixels.
In the above embodiment, the pixel value of the padding pixel is replaced with the average value of the pixel values of the object pixels. However, the pixel value of the padding pixel may be replaced with the average value of the pixel values of the background pixels. With either method, it is possible to smooth the change in the video signal on a block-by-block basis and to perform padding processing with high quality.

【0122】また、本発明に係る画像オブジェクト素材
生成装置は、入力された画像データに対して、オブジェ
クトを切り出す手段を備えてもよい。つまり、切り出さ
れたオブジェクトに対して、キー生成、サイズ変更、高
周波除去、画素補償(パディング)等を施してもよい。
Further, the image object material generating apparatus according to the present invention may include means for cutting out an object from the input image data. That is, key generation, size change, high frequency removal, pixel compensation (padding), and the like may be performed on the clipped object.

【0123】また、上記実施の形態では、画像データ保
持部16は、常に、画素選択手段15からの画像データ
をバッファメモリに格納したが、これに代えて、外部か
らの指示に従って、画像データを保持するか、そのまま
通過させるかを選択して動作してもよい。
In the above embodiment, the image data holding unit 16 always stores the image data from the pixel selection unit 15 in the buffer memory. Instead, the image data holding unit 16 stores the image data in accordance with an external instruction. The operation may be performed by selecting whether to hold the data or pass the data as it is.

【0124】また、本実施の形態におけるLow Pass Ext
rapolationパディングアルゴリズムでは、上下左右4画
素の画素値の平均をとる2次元フィルタリング処理が行
われたが、フィルタリング処理としてはこれに限定され
るものではなく、ガウシアンフィルタ等の他のフィルタ
リング処理であってもよい。
Further, the Low Pass Ext in the present embodiment
In the rapolation padding algorithm, two-dimensional filtering processing for averaging the pixel values of four pixels in the upper, lower, left, and right directions is performed. However, the filtering processing is not limited to this, and other filtering processing such as a Gaussian filter may be used. Is also good.

【0125】[0125]

【発明の効果】本発明の画像オブジェクト素材生成装置
は、入力された映像信号から画素ごとに物体画素と背景
画素とを区別する基準となるキーを生成するキー生成手
段と、前記映像信号のフレームサイズを変更するフレー
ムサイズ変更手段と、前記フレームサイズ変更手段にお
いて処理された映像信号の高周波成分を除去する低周波
成分通過手段と、前記低周波成分通過手段において処理
された映像信号に、前記キー生成手段で生成されたキー
に基づいて、Low Pass Extrapolationパディングアルゴ
リズムによるパディング処理を行う画素補償手段と、前
記低周波成分通過手段において処理された映像信号と前
記画素補償手段において処理された映像信号とのいずれ
かを選択する画素選択手段とを備える。
According to the present invention, there is provided an image object material generating apparatus, comprising: a key generating means for generating a key serving as a reference for distinguishing an object pixel and a background pixel for each pixel from an input video signal; Frame size changing means for changing the size; low-frequency component passing means for removing high-frequency components of the video signal processed by the frame size changing means; and a video signal processed by the low-frequency component passing means. Based on the key generated by the generating unit, a pixel compensating unit that performs padding processing by a Low Pass Extrapolation padding algorithm, a video signal processed by the low frequency component passing unit, and a video signal processed by the pixel compensating unit. Pixel selection means for selecting any one of the above.

【0126】つまり、この画像オブジェクト素材生成装
置によれば、画素補償手段がLow Pass Extrapolationパ
ディングアルゴリズムを用いたパディング処理を行うの
で、パディング画素に対して単に代替画素値が与えられ
るだけでなく、その後にフィルタリング処理が行われ、
隣接画素の画素値が反映されたよりきめの細かいパディ
ング処理が施される。その結果、画像オブジェクト素材
生成装置は、品質の高い画像オブジェクト素材を生成す
ることができるという効果がある。
That is, according to this image object material generating apparatus, the pixel compensating means performs padding processing using the Low Pass Extrapolation padding algorithm. Is filtered.
Finer padding processing in which the pixel values of adjacent pixels are reflected is performed. As a result, there is an effect that the image object material generation device can generate a high quality image object material.

【0127】本発明の画像オブジェクト素材生成装置
は、上記画像オブジェクト素材生成装置において、上記
画素補償手段がさらに、順次入力される各画素の映像信
号の値とキー値とを保持するバッファメモリと、順次入
力される各画素のキー値に基づいて、前記物体画素の映
像信号から代替画素値を生成する代替画素値生成部と、
順次入力される各画素のキー値に基づいて、パディング
画素の位置を示す情報を保持するパディング画素位置保
持部と、前記パディング画素位置保持部を参照してパデ
ィング画素を特定し、特定されたパディング画素に、前
記代替画素値と前記バッファメモリ内の映像信号の値と
を用いてフィルタリング処理するフィルタリング部とを
備える。
In the image object material generating apparatus according to the present invention, in the image object material generating apparatus, the pixel compensating means may further comprise a buffer memory for holding a sequentially input video signal value and a key value of each pixel; An alternative pixel value generation unit that generates an alternative pixel value from a video signal of the object pixel based on a key value of each pixel sequentially input;
A padding pixel position holding unit that holds information indicating a position of a padding pixel based on a key value of each pixel sequentially input, and a padding pixel specified by referring to the padding pixel position holding unit, and the specified padding is specified. The pixel includes a filtering unit that performs a filtering process using the substitute pixel value and the value of the video signal in the buffer memory.

【0128】これにより、パディング画素の画素値を代
替画素値に置換するだけの無駄なステップがバイパスさ
れ、置換とフィルタリング処理とが一体化されたパディ
ング処理が実行される。その結果、パディング画素の画
素値を代替画素値に置換しただけの状態を記憶する中間
的なバッファメモリが不要になるとともに、そのバッフ
ァメモリから代替画素値を繰り返し読み出す処理が不要
となるので、回路規模が縮小化されたり、処理速度が向
上したりするという効果がある。
As a result, a useless step of simply replacing the pixel value of the padding pixel with the substitute pixel value is bypassed, and the padding process in which the replacement and the filtering process are integrated is executed. As a result, an intermediate buffer memory for storing a state in which the pixel values of the padding pixels are merely replaced with alternative pixel values is not required, and a process of repeatedly reading alternative pixel values from the buffer memory is not required. This has the effect of reducing the scale and improving the processing speed.

【0129】なお、本発明は、上記画像オブジェクト素
材生成装置の特徴的な構成要素である画素補償手段の機
能だけを備える(画像オブジェクトの外側を埋めるパデ
ィング処理を実行する)汎用的なパディング装置として
実現したり、それら画像オブジェクト素材生成装置及び
パディング装置の特徴的な構成要素を処理ステップとす
る画像オブジェクト素材生成方法及びパディング方法と
して実現したり、それらステップをコンピュータに実行
させるプログラムとして実現したりすることもできる。
そして、そのプログラムをCD−ROM等のコンピュー
タ読み取り可能な記録媒体や通信路等の伝送媒体を介し
て流通させることができることは言うまでもない。
The present invention is a general-purpose padding device having only the function of a pixel compensating means which is a characteristic component of the image object material generating device (performing a padding process for filling the outside of the image object). It is realized as an image object material generation method and a padding method using the characteristic components of the image object material generation device and the padding device as processing steps, or as a program that causes a computer to execute those steps. You can also.
It goes without saying that the program can be distributed via a computer-readable recording medium such as a CD-ROM or a transmission medium such as a communication path.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像オブジェクト素材生成装置の構成
を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image object material generation device according to the present invention.

【図2】(a)は、図1に示された画像オブジェクト素
材生成装置によって処理される映像信号の内容を示す図
である。(b)は、図1に示された画像オブジェクト素
材生成装置で用いられる映像信号とキー信号との構成の
一例を示す図である。(c)は、色相を円周で、彩度を
半径で表した場合のキーを示す図である。
FIG. 2A is a diagram illustrating the content of a video signal processed by the image object material generation device illustrated in FIG. 1; FIG. 2B is a diagram illustrating an example of a configuration of a video signal and a key signal used in the image object material generation device illustrated in FIG. 1. (C) is a diagram showing keys when the hue is represented by the circumference and the saturation is represented by the radius.

【図3】図1に示されたキー生成部の内部構成の一例を
示すブロック図である。
FIG. 3 is a block diagram illustrating an example of an internal configuration of a key generation unit illustrated in FIG. 1;

【図4】図1に示されたフレームサイズ変換部の内部構
成の一例を示すブロック図である。
FIG. 4 is a block diagram illustrating an example of an internal configuration of a frame size conversion unit illustrated in FIG. 1;

【図5】図1に示された低周波通過部の内部構成の一例
を示すブロック図である。
FIG. 5 is a block diagram showing an example of an internal configuration of a low-frequency passing unit shown in FIG.

【図6】図1に示された画素補償部の内部構成の一例を
示すブロック図である。
FIG. 6 is a block diagram illustrating an example of an internal configuration of a pixel compensator illustrated in FIG. 1;

【図7】図1に示された画素補償部の内部構成の他の例
を示すブロック図である。
FIG. 7 is a block diagram illustrating another example of the internal configuration of the pixel compensation unit illustrated in FIG. 1;

【図8】図6に示された平均値計算部の処理手順の一例
を示すフローチャートである。
FIG. 8 is a flowchart illustrating an example of a processing procedure of an average value calculation unit illustrated in FIG. 6;

【図9】図6に示されたパディング処理部の処理手順を
示すフローチャートである。
FIG. 9 is a flowchart illustrating a processing procedure of a padding processing unit illustrated in FIG. 6;

【図10】図6に示されたフィルタ処理部の処理手順の
一例を示すフローチャートである。
FIG. 10 is a flowchart illustrating an example of a processing procedure of a filter processing unit illustrated in FIG. 6;

【図11】図7に示された画素識別部と物体画素平均値
計算部との処理手順の一例を示すフローチャートであ
る。
11 is a flowchart illustrating an example of a processing procedure of a pixel identification unit and an object pixel average value calculation unit illustrated in FIG. 7;

【図12】図7に示された代替画素供給部の処理手順の
一例を示すフローチャートである。
FIG. 12 is a flowchart illustrating an example of a processing procedure of a substitute pixel supply unit illustrated in FIG. 7;

【図13】(a)は、画素補償部の入力データのうち各
画素の輝度値の一例を示す図である。(b)は、図13
(a)に示された入力データに基づいて表示される入力
画像の輝度を示す図である。
FIG. 13A is a diagram illustrating an example of a luminance value of each pixel in input data of a pixel compensation unit. FIG.
FIG. 4 is a diagram illustrating luminance of an input image displayed based on the input data illustrated in FIG.

【図14】(a)は、画素補償部の入力データのうち各
画素の色差から計算されたキー値の一例を示す図であ
る。(b)は、図14(a)に示されたキー値から、し
きい値を「100」として得られたパディングマップ保
持部のパディングマップを示す図である。
FIG. 14A is a diagram illustrating an example of a key value calculated from a color difference of each pixel in input data of a pixel compensation unit. FIG. 15B is a diagram showing a padding map of the padding map holding unit obtained by setting the threshold value to “100” from the key values shown in FIG.

【図15】(a)は、代替画素供給部が図13(a)に
示された映像ブロックに対し、図14(b)に示された
パディングマップを用いて2次元フィルタリング処理し
た後の輝度値を示す図である。(b)は、代替画素供給
部による2次元フィルタリング処理後の輝度値を視覚的
に示す図である。(c)は、図15(b)に示された映
像ブロック内の各画素の輝度値とハッチングとの対応を
示す図である。
15A is a diagram illustrating luminance after the alternative pixel supply unit performs a two-dimensional filtering process on the video block illustrated in FIG. 13A using the padding map illustrated in FIG. 14B. It is a figure showing a value. (B) is a figure which shows visually the brightness value after two-dimensional filtering processing by a substitute pixel supply part. FIG. 17C is a diagram showing the correspondence between the brightness value of each pixel in the video block shown in FIG. 15B and hatching.

【図16】代替画素供給部の2次元フィルタリングにお
けるバッファメモリの参照回数を前記映像ブロックの画
素ごとに示す図である。
FIG. 16 is a diagram showing, for each pixel of the video block, the number of times a buffer memory is referred to in the two-dimensional filtering of the alternative pixel supply unit.

【図17】画像オブジェクト素材生成装置の実際の製品
への適用例を示す図である。
FIG. 17 is a diagram illustrating an application example of an image object material generation device to an actual product.

【図18】(a)は、物体と背景とを含む画像を矢印の
方向に走査した場合において物体画素と背景画素との境
界を含むN×N画素(Nは正の整数)のブロックの1つ
を示す図である。(b)は、図18(a)に示されたブ
ロック内の画像をx方向に走査したときの映像信号の画
素値(例えば輝度値)の変化を示すグラフである。
FIG. 18A shows one of N × N pixel (N is a positive integer) block including a boundary between an object pixel and a background pixel when an image including an object and a background is scanned in the direction of an arrow. FIG. 18B is a graph illustrating a change in a pixel value (for example, a luminance value) of a video signal when an image in the block illustrated in FIG. 18A is scanned in the x direction.

【図19】特開平10−210470号公報に開示され
た従来のパディング処理装置の構成を示すブロック図で
ある。
FIG. 19 is a block diagram showing a configuration of a conventional padding processing device disclosed in Japanese Patent Application Laid-Open No. 10-210470.

【符号の説明】[Explanation of symbols]

10 画像オブジェクト素材生成装置 11 キー生成部 12 フレームサイズ変換部 13 低周波通過部 14 画素補償部 15 画素選択部 16 画像データ保持部 Reference Signs List 10 image object material generation device 11 key generation unit 12 frame size conversion unit 13 low frequency passage unit 14 pixel compensation unit 15 pixel selection unit 16 image data holding unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小林 忠司 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5B057 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CD05 CF04 CH18 5C059 KK11 LB05 LB15 MA00 MA23 MB06 MB27 PP16 PP28 PP29 SS08 SS10 UA02 UA12 UA38 5C076 AA21 AA22 BB04 BB06 CB01 ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Tadashi Kobayashi 1006 Kazuma Kadoma, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. F term (reference) 5B057 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CD05 CF04 CH18 5C059 KK11 LB05 LB15 MA00 MA23 MB06 MB27 PP16 PP28 PP29 SS08 SS10 UA02 UA12 UA38 5C076 AA21 AA22 BB04 BB06 CB01

Claims (28)

【特許請求の範囲】[Claims] 【請求項1】 入力された映像信号から画素ごとに物体
画素と背景画素とを区別する基準となるキーを生成する
キー生成手段と、 前記映像信号のフレームサイズを変更するフレームサイ
ズ変更手段と、 前記フレームサイズ変更手段において処理された映像信
号の高周波成分を除去する低周波成分通過手段と、 前記低周波成分通過手段において処理された映像信号
に、前記キー生成手段で生成されたキーに基づいて、Lo
w Pass Extrapolationパディングアルゴリズムによるパ
ディング処理を行う画素補償手段と、 前記低周波成分通過手段において処理された映像信号と
前記画素補償手段において処理された映像信号とのいず
れかを選択する画素選択手段とを備えることを特徴とす
る画像オブジェクト素材生成装置。
A key generation unit configured to generate a key serving as a reference for distinguishing an object pixel and a background pixel for each pixel from an input video signal; a frame size changing unit configured to change a frame size of the video signal; A low-frequency component passing unit that removes a high-frequency component of the video signal processed by the frame size changing unit; and a video signal processed by the low-frequency component passing unit, based on the key generated by the key generation unit. , Lo
w Pass Extrapolation a pixel compensating unit that performs padding processing by a padding algorithm, and a pixel selecting unit that selects one of a video signal processed by the low-frequency component passing unit and a video signal processed by the pixel compensating unit. An image object material generation device, comprising:
【請求項2】 前記キー生成手段は、さらに、 前記映像信号からキーを生成するための基準値の入力を
受け付ける基準値入力部を備え、 前記キー生成手段は、前記基準値に基づいて映像信号か
らキーを生成することを特徴とする請求項1記載の画像
オブジェクト素材生成装置。
2. The image processing apparatus according to claim 1, wherein the key generation unit further includes a reference value input unit configured to receive an input of a reference value for generating a key from the video signal. 2. The image object material generating apparatus according to claim 1, wherein a key is generated from the image object material.
【請求項3】 前記フレームサイズ変更手段は、さら
に、 フレームサイズの拡大、縮小、等倍などの倍率の入力を
受け付ける倍率入力部を備え、 前記フレームサイズ変更手段は、入力された倍率に従っ
てフレームサイズを変更することを特徴とする請求項1
又は2記載の画像オブジェクト素材生成装置。
3. The frame size changing unit further includes a magnification input unit that receives an input of a magnification such as enlargement, reduction, or equal magnification of a frame size, wherein the frame size changing unit has a frame size according to the input magnification. 2. The method according to claim 1, wherein
Or the image object material generation device according to 2.
【請求項4】 前記低周波通過手段は、さらに、 前記フレームサイズ変更手段によるフレームサイズ変更
処理が縮小の場合は、入力された映像信号に対して低周
波通過処理を行い、拡大の場合は前記映像信号をそのま
ま出力する選択部を備えることを特徴とする請求項1〜
3のいずれか1項に記載の画像オブジェクト素材生成装
置。
4. The low-frequency passing unit further performs a low-frequency passing process on the input video signal when the frame size changing process by the frame size changing unit is a reduction process, The image processing apparatus according to claim 1, further comprising a selection unit configured to directly output the video signal.
3. The image object material generation device according to any one of 3.
【請求項5】 前記画像オブジェクト素材生成装置は、
さらに、 画像補償手段の出力データを保持するための記憶領域を
有する映像データ保持手段を備えることを特徴とする請
求項1〜4のいずれか1項に記載の画像オブジェクト素
材生成装置。
5. The image object material generating device according to claim 1,
5. The image object material generating apparatus according to claim 1, further comprising a video data holding unit having a storage area for holding output data of the image compensating unit.
【請求項6】 前記映像データ保持手段は、外部からの
指示に従って、映像信号を保持するか否かを選択して動
作することを特徴とする請求項5記載の画像オブジェク
ト素材生成装置。
6. The image object material generating apparatus according to claim 5, wherein said video data holding means operates by selecting whether or not to hold a video signal in accordance with an external instruction.
【請求項7】 前記画素補償手段は、さらに、 N×N(Nは自然数)画素からなる1映像ブロック分の
映像信号の値とキー値とを保持するバッファメモリと、 前記映像ブロックにおいて、あらかじめ設定されたしき
い値以上のキー値をもつ画素の映像信号の値を加算する
とともに、その画素数をカウントし、前記画素の映像信
号の値の平均値を求める平均値計算部と、 前記バッファメモリに保持されているキー値を取り出
し、前記しきい値未満のキー値の画素を検出し、その画
素の映像信号の値を前記平均値計算部で求めた平均値で
置き換えるパディング処理部と、 前記パディング処理部から出力される映像信号の値を2
N画素分保持するバッファメモリと、 前記バッファメモリに保持したキー値を取り出し、取り
出されたキー値が前記しきい値未満の画素を検出したな
らば、その上下左右の隣接4画素の映像信号の値につい
てバッファメモリを参照し、検出された画素の映像信号
の値を前記隣接4画素の平均を取ったものに置き換える
フィルタ処理部とを備えることを特徴とする請求項1〜
6のいずれか1項に記載の画像オブジェクト素材生成装
置。
7. A buffer memory for holding a video signal value and a key value for one video block consisting of N × N (N is a natural number) pixels, An average value calculation unit that adds the value of the video signal of a pixel having a key value equal to or greater than a set threshold value, counts the number of pixels, and obtains an average value of the video signal value of the pixel; A padding processing unit that extracts a key value held in a memory, detects a pixel having a key value less than the threshold value, and replaces a value of a video signal of the pixel with an average value obtained by the average value calculation unit. The value of the video signal output from the padding processing unit is 2
A buffer memory for holding N pixels; extracting a key value held in the buffer memory; detecting a pixel whose extracted key value is less than the threshold value; A filter processing unit that refers to a buffer memory for a value and replaces a value of a video signal of a detected pixel with an average of the four adjacent pixels.
7. The image object material generation device according to any one of 6.
【請求項8】 前記画素補償手段は、さらに、 順次入力される各画素の映像信号の値とキー値とを保持
するバッファメモリと、 順次入力される各画素のキー値に基づいて、前記物体画
素の映像信号から代替画素値を生成する代替画素値生成
部と、 順次入力される各画素のキー値に基づいて、パディング
画素の位置を示す情報を保持するパディング画素位置保
持部と、 前記パディング画素位置保持部を参照してパディング画
素を特定し、特定されたパディング画素に、前記代替画
素値と前記バッファメモリ内の映像信号の値とを用いて
フィルタリング処理するフィルタリング部とを備えるこ
とを特徴とする請求項1〜6のいずれか1項に記載の画
像オブジェクト素材生成装置。
8. The pixel compensating means further comprises: a buffer memory for holding a video signal value and a key value of each pixel sequentially input; and a memory for storing the object based on the key value of each pixel sequentially input. An alternative pixel value generation unit that generates an alternative pixel value from a video signal of a pixel; a padding pixel position holding unit that holds information indicating a position of a padding pixel based on a key value of each pixel sequentially input; A padding pixel is specified by referring to the pixel position holding unit, and a filtering unit that performs a filtering process on the specified padding pixel using the substitute pixel value and the value of the video signal in the buffer memory is provided. The image object material generation device according to claim 1.
【請求項9】 前記代替画素値生成部は、さらに、 前記キー値に基づいて前記物体画素を検出し、検出され
た物体画素の映像信号の値の平均値を計算するパディン
グ画素平均値計算部を備え、 前記フィルタリング部は、パディング画素平均値計算部
で算出された平均値を前記代替画素値として用いて前記
フィルタリング処理をすることを特徴とする請求項8記
載の画像オブジェクト素材生成装置。
9. The padding pixel average value calculation unit that detects the object pixel based on the key value and calculates an average value of video signal values of the detected object pixel. The image object material generating apparatus according to claim 8, wherein the filtering unit performs the filtering process using an average value calculated by the padding pixel average value calculation unit as the substitute pixel value.
【請求項10】 前記フィルタリング部は、さらに、 前記代替画素値を保持する代替画素値保持部と、 前記バッファメモリ内に映像信号の値とキー値とが保持
された各画素に順次注目し、注目した画素がパディング
画素か否かを検出するパディング画素検出部と、 検出された前記パディング画素を取り囲む隣接画素がパ
ディング画素であれば前記代替画素値を前記代替画素値
保持部から読み出し、前記パディング画素を取り囲む隣
接画素が物体画素であればその映像信号の値を前記バッ
ファメモリから読み出す隣接画素値読み出し部と、 隣接画素値読み出し部によって読み出された隣接画素の
代替画素値及び映像信号の値の平均値を計算する隣接画
素平均値計算部とを備え、 前記フィルタリング部は、前記パディング画素の映像信
号の値を前記隣接画素値計算部において計算された平均
値で置き換えることを特徴とする請求項9記載の画像オ
ブジェクト素材生成装置。
10. The filtering unit further includes: a replacement pixel value holding unit that holds the replacement pixel value; and a pixel sequentially holding a video signal value and a key value in the buffer memory. A padding pixel detection unit for detecting whether or not a pixel of interest is a padding pixel; If an adjacent pixel surrounding the pixel is an object pixel, an adjacent pixel value reading unit that reads the value of the video signal from the buffer memory; a substitute pixel value of the adjacent pixel read by the adjacent pixel value reading unit and a value of the video signal And an adjacent pixel average value calculation unit that calculates an average value of the padding pixels. Serial and replaces at the calculated average value in the adjacent pixel value calculating unit according to claim 9 image object material generating apparatus according.
【請求項11】 前記隣接画素値読み出し部は、前記パ
ディング画素位置保持部を参照して前記パディング画素
を取り囲む隣接画素がパディング画素か否かを判定する
ことを特徴とする請求項10記載の画像オブジェクト素
材生成装置。
11. The image according to claim 10, wherein the adjacent pixel value reading unit determines whether an adjacent pixel surrounding the padding pixel is a padding pixel with reference to the padding pixel position holding unit. Object material generation device.
【請求項12】 前記パディング画素位置保持部は、N
×N(Nは自然数)画素の映像ブロックに対して、外周
1画素部分にパディング画素を配置することにより、
(N+2)×(N+2)画素の映像ブロックのパディン
グ画素の位置を示す情報を保持することを特徴とする請
求項8〜11のいずれか1項に記載の画像オブジェクト
素材生成装置。
12. The padding pixel position holding section, wherein:
By arranging padding pixels in the outer one pixel portion for a video block of × N (N is a natural number) pixels,
The image object material generating apparatus according to claim 8, wherein information indicating a position of a padding pixel of a video block of (N + 2) × (N + 2) pixels is held.
【請求項13】 前記パディング画素位置保持部は、各
画素について、背景画素であるか否かを示す1ビットの
データを前記映像ブロックにおける各画素の位置に対応
させて保持していることを特徴とする請求項8〜12の
いずれか1項に記載の画像オブジェクト素材生成装置。
13. The padding pixel position holding unit holds, for each pixel, 1-bit data indicating whether or not the pixel is a background pixel, corresponding to the position of each pixel in the video block. The image object material generation device according to any one of claims 8 to 12.
【請求項14】 背景画素と物体画素との両方を含む映
像ブロックにおいて、背景画素と物体画素とのいずれか
に定めたパディング画素の画素値を代替画素値で置換す
ることによって背景と物体との境界を平滑化するパディ
ング装置であって、 前記映像ブロック内の画素の画素値を保持する画像デー
タ保持手段と、 前記代替画素値を保持する代替画素値保持手段と、 前記映像ブロック内におけるパディング画素の位置を示
したマップを保持するマップ保持手段と、 前記パディング画素の画素値として前記代替画素値を用
い、前記映像ブロック内のパディング画素につき、前記
マップを参照してフィルタリングするフィルタリング手
段とを備えることを特徴とするパディング装置。
14. In a video block including both a background pixel and an object pixel, a pixel value of a padding pixel defined as one of the background pixel and the object pixel is replaced with an alternative pixel value to thereby obtain a correspondence between the background and the object. A padding device for smoothing a boundary, comprising: image data holding means for holding a pixel value of a pixel in the video block; alternative pixel value holding means for holding the alternative pixel value; and a padding pixel in the video block. Map holding means for holding a map indicating the position of the image data, and filtering means for filtering the padding pixels in the video block by referring to the map using the alternative pixel values as the pixel values of the padding pixels. A padding device comprising:
【請求項15】 前記マップは、各画素について、パデ
ィング画素であるか否かを示す1ビットのデータを前記
映像ブロックにおける各画素の位置に対応させて保持し
ていることを特徴とする請求項14記載のパディング装
置。
15. The map according to claim 1, wherein one bit of data indicating whether or not each pixel is a padding pixel is held in correspondence with the position of each pixel in the video block. 15. The padding device according to 14.
【請求項16】 前記マップは、前記映像ブロックの大
きさがN×N画素の場合、幅1画素の外周部分をパディ
ング画素として(N+2)×(N+2)画素の大きさで
生成されていることを特徴とする請求項14又は15記
載のパディング装置。
16. The map, when the size of the video block is N × N pixels, is generated with a size of (N + 2) × (N + 2) pixels, with an outer peripheral portion having a width of 1 pixel as padding pixels. The padding device according to claim 14 or 15, wherein:
【請求項17】 前記フィルタリング手段は、前記映像
ブロック内の画素に注目し、注目している画素がパディ
ング画素であるか否かを前記マップを参照して判定し、
パディング画素であると判定した場合には、前記マップ
に従って、当該画素の隣接画素につき、パディング画素
であれば前記代替画素値保持手段に保持された代替画素
値を読み出し、パディング画素でなければその画素の画
素値を前記画像データ保持手段から読み出すことによ
り、それら隣接画素の画素値の平均値を計算し、得られ
た平均値で、注目している画素の画素値を置換すること
を特徴とする請求項14〜16のいずれか1項に記載の
パディング装置。
17. The filtering unit focuses on a pixel in the video block, and determines whether or not the focused pixel is a padding pixel with reference to the map,
If it is determined that the pixel is a padding pixel, the substitute pixel value held by the alternative pixel value holding means is read out for a pixel adjacent to the pixel according to the map if the pixel is a padding pixel. By reading the pixel values of the pixel data from the image data holding means, calculating the average value of the pixel values of the adjacent pixels, and replacing the pixel value of the pixel of interest with the obtained average value. The padding device according to any one of claims 14 to 16.
【請求項18】 前記パディング装置は、さらに、 画素に対応づけられたキー値に基づいて、その画素がパ
ディング画素か否かを識別し、その結果を前記マップと
して前記マップ保持手段に格納する識別手段を備えるこ
とを特徴とする請求項14〜17記載のパディング装
置。
18. The padding apparatus further comprises: identifying whether the pixel is a padding pixel based on a key value associated with the pixel, and storing a result as the map in the map holding unit. 18. The padding device according to claim 14, further comprising means.
【請求項19】 前記パディング装置は、さらに、 前記識別手段による識別の結果、パディング画素でない
と識別された画素の画素値の平均値を算出し、前記代替
画素値として前記代替画素値保持手段に格納する代替画
素値生成手段を備えることを特徴とする請求項18記載
のパディング装置。
19. The padding device further calculates an average value of pixel values of pixels identified as not padding pixels as a result of the identification by the identification unit, and sends the average value to the alternative pixel value holding unit as the alternative pixel value. 19. The padding device according to claim 18, further comprising a substitute pixel value generating unit for storing.
【請求項20】 前記パディング装置は、さらに、 順次入力される各画素の画素値を前記画像データ保持手
段に格納する画素値書き込み手段を備え、 前記識別手段は、順次入力される各画素について、前記
画素値書き込み手段による書き込みと並行して前記識別
をすることを特徴とする請求項19記載のパディング装
置。
20. The padding device further comprises: a pixel value writing unit for storing a pixel value of each pixel sequentially inputted in the image data holding unit; and the identification unit comprises: 20. The padding device according to claim 19, wherein the identification is performed in parallel with writing by the pixel value writing unit.
【請求項21】 入力された映像信号から画素ごとに物
体画素と背景画素とを区別する基準となるキーを生成す
るキー生成ステップと、 前記映像信号のフレームサイズを変更するフレームサイ
ズ変更ステップと、 前記フレームサイズ変更ステップにおいて処理された映
像信号の高周波成分を除去する低周波成分通過ステップ
と、 前記低周波成分通過ステップにおいて処理された映像信
号に、前記キー生成ステップで生成されたキーに基づい
て、Low Pass Extrapolationパディングアルゴリズムに
よるパディング処理を行う画素補償ステップと、 前記低周波成分通過ステップにおいて処理された映像信
号と前記画素補償ステップにおいて処理された映像信号
とのいずれかを選択する画素選択ステップとを含むこと
を特徴とする画像オブジェクト素材生成方法。
21. A key generation step of generating a key serving as a reference for distinguishing an object pixel and a background pixel for each pixel from an input video signal, a frame size changing step of changing a frame size of the video signal, A low frequency component passing step of removing a high frequency component of the video signal processed in the frame size changing step; and a video signal processed in the low frequency component passing step, based on the key generated in the key generation step. A pixel compensation step of performing padding processing by a Low Pass Extrapolation padding algorithm, and a pixel selection step of selecting any of the video signal processed in the low frequency component passing step and the video signal processed in the pixel compensation step. Image object raw material characterized by including Method.
【請求項22】 前記画素補償ステップは、さらに、 順次入力される各画素の映像信号の値とキー値とをバッ
ファメモリに書き込むバッファメモリ書き込みステップ
と、 順次入力される各画素のキー値に基づいて、前記物体画
素の映像信号から代替画素値を生成する代替画素値生成
ステップと、 順次入力される各画素のキー値に基づいて、パディング
画素の位置を示す情報をパディング画素位置保持部に書
き込むパディング画素位置書き込みステップと、 前記パディング画素位置保持部を参照してパディング画
素を特定し、特定されたパディング画素に、前記代替画
素値と前記バッファメモリ内の映像信号の値とを用いて
フィルタリング処理するフィルタリングステップとを含
むことを特徴とする請求項21記載の画像オブジェクト
素材生成方法。
22. The pixel compensating step further includes a buffer memory writing step of writing a video signal value and a key value of each pixel sequentially input to a buffer memory, and a key value of each sequentially input pixel. An alternative pixel value generating step of generating an alternative pixel value from the video signal of the object pixel; and writing information indicating the position of the padding pixel to the padding pixel position holding unit based on the sequentially input key value of each pixel. A padding pixel position writing step, a padding pixel is specified by referring to the padding pixel position holding unit, and a filtering process is performed on the specified padding pixel by using the substitute pixel value and the value of the video signal in the buffer memory. 22. The image object material generation method according to claim 21, further comprising: Method.
【請求項23】 背景画素と物体画素との両方を含む映
像ブロックにおいて、背景画素と物体画素とのいずれか
に定めたパディング画素の画素値を代替画素値で置換す
ることによって背景画素と物体画素との境界を平滑化す
るパディング方法であって、 前記映像ブロック内の画素の画素値を画像メモリに書き
込む画像メモリ書き込みステップと、 前記代替画素値を生成し、代替画素値保持手段に格納す
る代替画素値生成ステップと、 前記映像ブロック内におけるパディング画素の位置を示
したマップを生成し、マップ保持手段に格納するマップ
生成ステップと、 前記パディング画素の画素値として前記代替画素値を用
い、前記映像ブロック内のパディング画素につき、前記
マップを参照してフィルタリングするフィルタリングス
テップとを含むことを特徴とするパディング方法。
23. In a video block including both a background pixel and an object pixel, a pixel value of a padding pixel defined as one of the background pixel and the object pixel is replaced with an alternative pixel value to thereby obtain a background pixel and an object pixel. An image memory writing step of writing pixel values of pixels in the video block to an image memory; and a method of generating the substitute pixel value and storing the substitute pixel value in a substitute pixel value holding unit. A pixel value generation step, a map generation step of generating a map indicating the positions of padding pixels in the video block and storing the map in a map holding unit, and using the alternative pixel value as a pixel value of the padding pixel, Filtering the padding pixels in the block with reference to the map. Padding wherein the Mukoto.
【請求項24】 前記マップは、各画素について、パデ
ィング画素であるか否かを示す1ビットのデータを前記
映像ブロックにおける各画素の位置に対応させて保持し
ていることを特徴とする請求項23記載のパディング方
法。
24. The map according to claim 24, wherein the map stores 1-bit data indicating whether each pixel is a padding pixel in correspondence with the position of each pixel in the video block. 23. The padding method according to 23.
【請求項25】 請求項21記載の各ステップをコンピ
ュータに実行させるプログラム。
25. A program for causing a computer to execute the steps according to claim 21.
【請求項26】 請求項22記載の各ステップをコンピ
ュータに実行させるプログラム。
26. A program for causing a computer to execute the steps according to claim 22.
【請求項27】 請求項23記載の各ステップをコンピ
ュータに実行させるプログラム。
27. A program for causing a computer to execute the steps according to claim 23.
【請求項28】 請求項24記載の各ステップをコンピ
ュータに実行させるプログラム。
28. A program for causing a computer to execute the steps according to claim 24.
JP2001327460A 2000-10-27 2001-10-25 Image object content generator and padding device Pending JP2002204453A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001327460A JP2002204453A (en) 2000-10-27 2001-10-25 Image object content generator and padding device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-328553 2000-10-27
JP2000328553 2000-10-27
JP2001327460A JP2002204453A (en) 2000-10-27 2001-10-25 Image object content generator and padding device

Publications (1)

Publication Number Publication Date
JP2002204453A true JP2002204453A (en) 2002-07-19

Family

ID=26602907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001327460A Pending JP2002204453A (en) 2000-10-27 2001-10-25 Image object content generator and padding device

Country Status (1)

Country Link
JP (1) JP2002204453A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007282085A (en) * 2006-04-11 2007-10-25 Toshiba Corp Image filter processing apparatus and image processor
JP2009237927A (en) * 2008-03-27 2009-10-15 Nippon Telegr & Teleph Corp <Ntt> Image composition method and device
CN111679877A (en) * 2020-05-27 2020-09-18 浙江大华技术股份有限公司 Method and device for changing background of terminal equipment and electronic equipment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007282085A (en) * 2006-04-11 2007-10-25 Toshiba Corp Image filter processing apparatus and image processor
JP2009237927A (en) * 2008-03-27 2009-10-15 Nippon Telegr & Teleph Corp <Ntt> Image composition method and device
CN111679877A (en) * 2020-05-27 2020-09-18 浙江大华技术股份有限公司 Method and device for changing background of terminal equipment and electronic equipment
CN111679877B (en) * 2020-05-27 2023-08-29 浙江大华技术股份有限公司 Method and device for changing background of terminal equipment and electronic equipment

Similar Documents

Publication Publication Date Title
US6833845B2 (en) Image object content generation device and padding device
US7715656B2 (en) Magnification and pinching of two-dimensional images
US5267333A (en) Image compressing apparatus and image coding synthesizing method
US7149355B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program
US8411983B2 (en) Method and apparatus for producing a contrast enhanced image
JP3046079B2 (en) A histogram equalizer for improving the contrast of moving images
US7567723B2 (en) Resolution changing method and apparatus
US20070237425A1 (en) Image resolution increasing method and apparatus for the same
JPH02141876A (en) Method and apparatus for generating animation image
JP2000032465A (en) Nonlinear adaptive image filter eliminating noise such as blocking artifact or the like
JP2007534238A (en) Encoding, decoding and representation of high dynamic range images
US7433544B2 (en) Apparatus and method for producing thumbnail images and for improving image quality of re-sized images
US7664338B2 (en) Perspective transformation of two-dimensional images
JP3033967B2 (en) Method and apparatus for processing image signals
US6289136B1 (en) Image processing method and apparatus
EP4078526B1 (en) Noise synthesis for digital images
JPH10208030A (en) Image processor and processing method
US8499019B2 (en) Electronic hardware resource management in video processing
CN114449181A (en) Image and video processing method, system thereof, data processing apparatus, and medium
JP2002204453A (en) Image object content generator and padding device
US6232978B1 (en) Image processing apparatus, and method of controlling same, using a combination of enlargement and fixed ratio reduction processing
US6714210B1 (en) Continuous kernel image interpolation
JPH11296666A (en) Image connection method, image connector and medium for storing image connection processing program
JP2002015327A (en) Image type discrimination device, image processor using the same, and image type discrimination method
JP2000312294A (en) Image processor