JPH11346329A - Image processor, its method and image processing system - Google Patents

Image processor, its method and image processing system

Info

Publication number
JPH11346329A
JPH11346329A JP16773098A JP16773098A JPH11346329A JP H11346329 A JPH11346329 A JP H11346329A JP 16773098 A JP16773098 A JP 16773098A JP 16773098 A JP16773098 A JP 16773098A JP H11346329 A JPH11346329 A JP H11346329A
Authority
JP
Japan
Prior art keywords
image
image processing
main object
slave
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP16773098A
Other languages
Japanese (ja)
Other versions
JP3832971B2 (en
Inventor
Mitsuru Maeda
充 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP16773098A priority Critical patent/JP3832971B2/en
Priority to US09/323,254 priority patent/US6625316B1/en
Publication of JPH11346329A publication Critical patent/JPH11346329A/en
Application granted granted Critical
Publication of JP3832971B2 publication Critical patent/JP3832971B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To synthesize images obtained by applying suitable image processing to an image and a slave object attended with a master object in the image such as a shadow. SOLUTION: A shadow object is extracted in the steps S107, S108 from a closed area including a master object that is extracted in the step S106 and the master/slave objects are registered in a table. Then the master/slave objects are suitably synthesized in the S113 with a background image received in the S111 according to a synthesis method designated in the S110.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置及びそ
の方法に関し、特に画像内のオブジェクトを抽出して処
理する画像処理装置及びその方法に関する。
The present invention relates to an image processing apparatus and method, and more particularly, to an image processing apparatus and method for extracting and processing objects in an image.

【0002】[0002]

【従来の技術】従来、動画像の符号化方式として、フレ
ーム単位で符号化するMPEG-1、MPEG-2やH.261といった
符号化方式が知られている。これらの符号化方式におい
ては、フレーム間の相関を用いることにより、動画像を
高効率に符号化することが出来る。
2. Description of the Related Art Conventionally, as a moving image encoding method, an encoding method such as MPEG-1, MPEG-2, or H.261 for encoding in a frame unit has been known. In these encoding methods, a moving image can be encoded with high efficiency by using the correlation between frames.

【0003】これらに対して更に高効率の符号化方式と
して、MPEG-4のように画像からオブジェクトを切り出
し、背景とは別に符号化し、オブジェクトだけを伝送す
る方式が検討されている。このような符号化方式を用い
れば、伝送する画像の領域を小さくできるため、低ビッ
トレートの回線でも動画像の伝送が可能になる。さら
に、受信側ではオフジェクトを選択して表示をしたり、
配置や大きさ等を変更することにより、受信側で好適な
表示を行えることが可能になった。さらには別な背景と
合成するような編集も容易に行えるようになった。
On the other hand, as a more efficient encoding method, a method of extracting an object from an image, encoding the object separately from the background, and transmitting only the object, such as MPEG-4, has been studied. If such an encoding method is used, the area of an image to be transmitted can be reduced, so that a moving image can be transmitted over a low bit rate line. In addition, the receiving side can select and display the object,
By changing the arrangement, size, and the like, it has become possible to perform suitable display on the receiving side. In addition, editing that can be combined with another background can now be easily performed.

【0004】また、静止画像の符号化方式としてJPEG符
号化方式が知られており、画像の特性に最適な符号化、
たとえば文字画像にはMMR符号化方式を、写真画像にはJ
PEG符号化方式を割り当てる方法も提案されている。
[0004] Also, a JPEG encoding method is known as a still image encoding method.
For example, MMR coding is used for character images, and J is used for photographic images.
A method of assigning a PEG encoding method has also been proposed.

【0005】ここで、動画像からオブジェクトを抽出す
る方法としては、一般的には放送局等で使用されている
クロマキーによる抽出技術が知られている。これは、青
色の背景の前で人物等のオブジェクトを撮影し、この人
物オブジェクトを電気信号的に切り出す手法である。
尚、クロマキーを用いたオブジェクト撮影の場合、一般
的に撮影スタジオ等で行われ、照明条件が整っているた
め、オブジェクトの影は発生しない。
Here, as a method for extracting an object from a moving image, an extraction technique using a chroma key generally used in a broadcast station or the like is known. This is a technique in which an object such as a person is photographed in front of a blue background, and the person object is cut out by an electric signal.
Note that, in the case of object photographing using a chroma key, the photographing is generally performed in a photographing studio or the like, and since the lighting conditions are adjusted, no shadow of the object is generated.

【0006】また、静止画像においては、自動的に像域
を分離したり、画像の中からオブジェクトを抽出する場
合にはユーザの手動によって領域を指示したり、同じよ
うな色の領域を統合したりして、所望の像域の切り出し
を行っている。
In still images, an image area is automatically separated. When an object is extracted from an image, an area is manually designated by a user, or areas of similar colors are integrated. As a result, a desired image area is cut out.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上述し
たクロマキーによって抽出可能なオブジェクトは、背景
を青色に限定した撮影ができる範囲の、比較的小さなも
のに限られてしまう。従って、比較的大きなオブジェク
トについては、自然画像の動画像から抽出することが考
えられる。その方法の一つとして、予め背景画像を入力
しておき、その背景画像と入力された画像との差分画像
からオブジェクトの切り出しを行なう方法や、また、背
景を構成する色情報等を予め取得しておき、入力画像に
おいて該色情報と異なる色の領域を抽出する方法(画像
符号化シンポジウムPSCJ97I-3.15)等が知られている。
However, the objects that can be extracted by the above-mentioned chroma key are limited to relatively small objects within a range where the background can be photographed with a blue color. Therefore, a relatively large object may be extracted from a moving image of a natural image. As one of the methods, a method of inputting a background image in advance, extracting an object from a difference image between the background image and the input image, and acquiring color information and the like constituting the background in advance are provided. In addition, a method of extracting an area of a color different from the color information in an input image (image coding symposium PSCJ97I-3.15) and the like are known.

【0008】以下、図21に示す様な画像1050からヘリコ
プタ1051の絵柄をオブジェクトとして切り出す例につい
て説明する。即ち、図21の画像1050と図22に示す背景画
像1052との差分を求め、ノイズ除去等の処理を行うこと
により、図23に示すオブジェクト1053が抽出される。こ
のオブジェクト1053を図24に示す背景画像1054と合成す
ることにより、図25に示す新しい画像を編集することが
可能となる。
Hereinafter, an example in which the picture of the helicopter 1051 is cut out as an object from an image 1050 as shown in FIG. 21 will be described. That is, the difference between the image 1050 in FIG. 21 and the background image 1052 in FIG. 22 is obtained, and processing such as noise removal is performed, thereby extracting the object 1053 in FIG. By combining this object 1053 with the background image 1054 shown in FIG. 24, a new image shown in FIG. 25 can be edited.

【0009】しかしながら、自然画像の動画像内におけ
るオブジェクトには、一般的なクロマキー合成のための
撮影とは異なり、自然光の中での撮影であるために影が
生じることが多い。そのため、図25の画像においてはヘ
リコプタの影が空中に生じてしまい、不自然な合成結果
となってしまう。
However, objects in a moving image of a natural image often have shadows unlike natural shooting for chroma key synthesis because shooting is performed in natural light. Therefore, in the image of FIG. 25, a helicopter shadow is generated in the air, which results in an unnatural synthesis result.

【0010】また、図26に示す画像1055において、芝生
上の草を食む牛1056を同様に切り出した結果、図27に示
す1057がオブジェクトとして得られる。このオブジェク
ト1057を例えば図28に示すように市街地の背景と合成し
た場合、オブジェクト1057に含まれていた牛の影もその
まま合成される。この牛の影の像については、原画像10
55における芝生上の草の像を含んでいるため、図28のよ
うにアスファルトの背景と合成された場合、かなり不自
然な画像となってしまう。
[0010] In the image 1055 shown in FIG. 26, a cow 1056 eating grass on the lawn is similarly cut out, and as a result, 1057 shown in FIG. 27 is obtained as an object. When this object 1057 is combined with, for example, the background of an urban area as shown in FIG. 28, the shadow of the cow included in the object 1057 is also combined as it is. The original image 10
Since the image of the grass on the lawn at 55 is included, when combined with the asphalt background as shown in FIG. 28, the image becomes quite unnatural.

【0011】さらに、クロマキー等によって影がないオ
ブジェクトが得られ、該オブジェクトを合成する場合に
ついて考えると、この場合、オブジェクトと合成された
背景との3次元的な位置関係や光源等の設定をコンピュ
ータ処理等によって行うことができる。しかしながらこ
の設定は、例えばスタジオ等の限られた環境下では有効
であるが、一旦、動画像として2次元的に入力されてし
まったオブジェクトに対しては、影等の生成が行えない
ため、影のない不自然な合成画像ができてしまうという
問題があった。図29に、牛1056を影なしで合成した画像
を示すが、かなりの不自然さが生じていることが分か
る。このような影のない合成による不自然さは、他の物
体の影が多く発生しているような背景画像と合成される
ことにより、より顕著となる。
Further, considering a case where an object having no shadow is obtained by chroma key or the like and the object is synthesized, in this case, the three-dimensional positional relationship between the object and the synthesized background and the setting of a light source and the like are determined by a computer. It can be performed by processing or the like. However, this setting is effective, for example, in a limited environment such as a studio, but it is not possible to generate a shadow or the like for an object once input two-dimensionally as a moving image. There is a problem in that an unnatural composite image without the image is generated. FIG. 29 shows an image obtained by combining the cow 1056 without a shadow, and it can be seen that considerable unnaturalness has occurred. Such unnaturalness due to the combination without shadows becomes more remarkable when the image is combined with a background image in which many shadows of other objects are generated.

【0012】本発明は上述した課題を解決するためにな
されたものであり、主オブジェクトとそれに付随する例
えば影のような従オブジェクトとを含むオブジェクトに
対して好適な画像処理を可能とする画像処理装置及びそ
の方法を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and has been made in consideration of the above-described problems. It is an object of the present invention to provide an image processing apparatus capable of performing suitable image processing on an object including a main object and a subsidiary object such as a shadow, for example. It is an object to provide an apparatus and a method thereof.

【0013】[0013]

【課題を解決するための手段】上記目的を達成するため
の一手段として、本発明の画像処理装置は以下の構成を
備える。
As one means for achieving the above object, the image processing apparatus of the present invention has the following arrangement.

【0014】即ち、画像から少なくとも1つのオブジェ
クトを抽出する抽出手段と、前記抽出されたオブジェク
トのうち、主たるオブジェクトである主オブジェクトを
設定する主オブジェクト設定手段と、前記抽出されたオ
ブジェクトのうち、前記主オブジェクトに付随する従オ
ブジェクトを設定する従オブジェクト設定手段と、前記
主オブジェクトに対して画像処理を施す主オブジェクト
処理手段と、前記従オブジェクトに対して前記主オブジ
ェクト処理手段における画像処理に準じた画像処理を施
す従オブジェクト処理手段と、を備えることを特徴とす
る。
That is, extracting means for extracting at least one object from an image, main object setting means for setting a main object which is a main object among the extracted objects, and Slave object setting means for setting a slave object attached to the main object; main object processing means for performing image processing on the main object; and an image corresponding to the image processing in the main object processing means for the slave object. And subordinate object processing means for performing processing.

【0015】また、画像から少なくとも1つのオブジェ
クトを抽出する抽出手段と、前記抽出されたオブジェク
トを主たるオブジェクトとそれに付随する従オブジェク
トとに分類する分類手段と、前記主オブジェクトを符号
化する主オブジェクト符号化手段と、前記従オブジェク
トを符号化する従オブジェクト符号化手段と、を備える
ことを特徴とする。
[0015] Further, extraction means for extracting at least one object from an image, classification means for classifying the extracted object into a main object and its subordinate objects, and a main object code for encoding the main object Encoding means, and slave object encoding means for encoding the slave object.

【0016】また、画像から少なくとも1つの主オブジ
ェクトを抽出するオブジェクト抽出手段と、前記主オブ
ジェクトに付随する従オブジェクトを生成する従オブジ
ェクト生成手段と、前記主オブジェクトに対して画像処
理を施す主オブジェクト処理手段と、前記従オブジェク
トに対して前記主オブジェクト処理手段における画像処
理に準じた画像処理を施す従オブジェクト処理手段と、
を備えることを特徴とする。
Object extracting means for extracting at least one main object from an image; sub-object generating means for generating a sub-object attached to the main object; main object processing for performing image processing on the main object Means, a slave object processing means for performing image processing on the slave object in accordance with image processing in the main object processing means,
It is characterized by having.

【0017】[0017]

【発明の実施の形態】以下、本発明に係る一実施形態に
ついて、図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described below in detail with reference to the drawings.

【0018】<第1実施形態>図1は、本実施形態に係る
動画像編集装置の構成を示すブロック図である。尚、本
実施形態においては、CPUを用いたソフトウェア処理を
行った場合について説明する。同図において、101はソ
フトウェアを実行し、装置全体を制御するCPUである。1
02は不図示のユーザが編集処理の指示を行う端末であ
る。103は編集に用いる画像データを蓄積している記憶
装置である。104はメモリであり、装置全体を制御する
ためのOS、CPU101で実行するソフトウェア、各種処理に
必要なワークメモリ等を格納する。105は画像メモリで
あり、各作業に必要な画像データを格納する。106は画
像の合成処理を行う合成器であり、107は合成結果を格
納するフレームメモリであり、108はフレームメモリ107
の内容を表示するモニタである。109は種々のデータや
制御コマンド、画像データを各構成間においてやり取り
するバスである。
<First Embodiment> FIG. 1 is a block diagram showing a configuration of a moving picture editing apparatus according to the present embodiment. In the present embodiment, a case where software processing using a CPU is performed will be described. In FIG. 1, reference numeral 101 denotes a CPU that executes software and controls the entire apparatus. 1
02 is a terminal to which a user (not shown) instructs an editing process. A storage device 103 stores image data used for editing. Reference numeral 104 denotes a memory, which stores an OS for controlling the entire apparatus, software executed by the CPU 101, a work memory required for various processes, and the like. An image memory 105 stores image data required for each operation. Reference numeral 106 denotes a synthesizer that performs image synthesis processing, 107 denotes a frame memory that stores a synthesis result, and 108 denotes a frame memory.
This is a monitor that displays the contents of. A bus 109 exchanges various data, control commands, and image data between the components.

【0019】かかる構成において、ユーザは、まず、端
末102から装置全体の起動を行う。さらに、画像の合成
に用いる背景画像と、その内部に合成するオブジェクト
を含む画像を選択する。例えば、合成する背景画像とし
て図24の画像1054を、オブジェクトを含む画像として、
図21のヘリコプタ1051を含む画像1050が選択されたとす
る。尚このとき、オブジェクトを含む画像1050のオリジ
ナルの背景画像として、図22の背景画像1052も同時に選
択される。続いて画像の合成処理を行うが、図2のフロ
ーチャートにその手順を示す。
In such a configuration, the user first activates the entire apparatus from the terminal 102. Further, an image including a background image used for image synthesis and an object to be synthesized therein is selected. For example, the image 1054 of FIG. 24 as a background image to be synthesized, as an image including an object,
Assume that an image 1050 including the helicopter 1051 in FIG. 21 is selected. At this time, the background image 1052 in FIG. 22 is simultaneously selected as the original background image of the image 1050 including the object. Subsequently, an image combining process is performed. The procedure is shown in a flowchart of FIG.

【0020】まず、図22に示すオリジナルの背景画像10
52の画像データを記憶装置103から読み出し、画像メモ
リ105の所定の領域に書き込む(ステップS101)。そし
て、オブジェクトであるヘリコプタ1051を含む画像1050
の符号化データを記憶装置103から読み出し、画像メモ
リ105の所定の領域(Object1)に書き込む(ステップS10
2)。このとき、フレームカウンタnを0にセットする。
尚、これら背景画像及びオブジェクトを含む画像のそれ
ぞれは、ユーザによって予め指定されている必要がある
が、その指定方法については限定しない。
First, an original background image 10 shown in FIG.
The image data of 52 is read from the storage device 103 and written in a predetermined area of the image memory 105 (step S101). Then, an image 1050 including the helicopter 1051 as an object
Is read from the storage device 103 and written in a predetermined area (Object 1) of the image memory 105 (step S10).
2). At this time, the frame counter n is set to 0.
Note that each of the background image and the image including the object needs to be designated in advance by the user, but the designation method is not limited.

【0021】以下、フレームカウンタnに従って、各フ
レームのオブジェクト抽出処理を行う。まず、第nフレ
ームの画像と背景画像1052との差分画像を求める(ステ
ップS104)。そして、該差分画像において所定の閾値以
下である画素値を0としてノイズ除去を行い(ステップS1
05)、画素値が0以上である画素の集合を閉領域として分
割した後、予め定めた大きさ以下である閉領域のみを抽
出し、画像メモリ105の所定の領域(Object1)に書き込む
(ステップS106)。
Hereinafter, the object extraction processing of each frame is performed according to the frame counter n. First, a difference image between the image of the n-th frame and the background image 1052 is obtained (step S104). Then, noise is removed by setting the pixel value of the difference image equal to or smaller than a predetermined threshold value to 0 (step S1).
05), after dividing a set of pixels having a pixel value of 0 or more as a closed area, extracting only a closed area having a size equal to or less than a predetermined size, and writing the same in a predetermined area (Object 1) of the image memory 105
(Step S106).

【0022】そしてステップS107において、画像メモリ
105のObject1に保持された閉領域から、差分値が同じよ
うな値をとる領域を抽出してフレームメモリ107に書き
込んでモニタ108に表示し、ユーザが該表示に基づいて
影である領域を選択して端末102で指定する。この動作
により影領域が抽出される。そして、Object1に保持さ
れている閉領域の画素のうち、指定された影領域に含ま
れる画素を画像メモリ105上の所定の領域(Object2)に書
き込む。そして更に、この影領域はオブジェクトの影で
あるとして、その画面内における位置や大きさ等がメモ
リ104の位置テーブルに、また、この影も1つのオブジェ
クト(従オブジェクト)であるとして、オブジェクトテー
ブルの例えば1番に登録される。このようにして得られ
た従オブジェクトである影の画像が、図3に示す影1060
である。
Then, in step S107, the image memory
From the closed area held in Object 1 of 105, an area having a similar difference value is extracted, written to the frame memory 107, displayed on the monitor 108, and the user selects a shadow area based on the display. And specify it on the terminal 102. With this operation, a shadow area is extracted. Then, of the pixels in the closed area held in Object1, the pixels included in the designated shadow area are written to a predetermined area (Object2) on the image memory 105. Further, it is assumed that this shadow area is a shadow of an object, the position and size of the shadow area in the screen are stored in a position table of the memory 104, and that this shadow is also one object (subordinate object). For example, it is registered as No. 1. The shadow image as the slave object obtained in this way is the shadow 1060 shown in FIG.
It is.

【0023】続いてステップS108において、Object1に
保持されている閉領域の画素のうち、合成対象となるオ
ブジェクト(主オブジェクト)としてその領域に含まれる
画素のみを残して他の画素を除去する。即ち、オブジェ
クトの閉領域から従オブジェクトである影領域を除去し
て、主オブジェクトを生成する。そして、該主オブジェ
クトがメモリ104内のオブジェクトテーブルの例えば2番
に登録され、その画面内における位置や大きさ等が位置
テーブルに記される。そしてこの時、オブジェクトテー
ブルの2番のLINK欄に、主オブジェクトに関する従オブ
ジェクトである影が登録されているオブジェクトテーブ
ルの番号「1」を記す(ステップS108)。このようにして得
られた主オブジェクトの画像が、図4に示すヘリコプタ1
061である。
Subsequently, in step S108, of the pixels in the closed region held in Object1, other pixels are removed while leaving only pixels included in the region as an object (main object) to be synthesized. That is, a shadow object, which is a slave object, is removed from the closed area of the object, and a master object is generated. Then, the main object is registered in, for example, No. 2 of the object table in the memory 104, and the position, size, and the like in the screen are described in the position table. At this time, the number “1” of the object table in which the shadow, which is the slave object related to the main object, is registered in the second LINK column of the object table (step S108). The image of the main object obtained in this manner is the helicopter 1 shown in FIG.
061.

【0024】そして、フレームカウンタnに1を加え、次
のフレームの処理を行う(ステップS109)。尚、第1フレ
ーム以降においては、前のフレームで得られた影の差分
画像の平均差分値に近い領域を選択することで、ユーザ
の確認なしで影の領域を抽出することができる。フレー
ムカウンタnが処理すべき全フレーム数よりも小さい間
は(ステップS103)、ステップS104〜S109までの処理を
繰り返す。
Then, 1 is added to the frame counter n, and processing for the next frame is performed (step S109). In the first and subsequent frames, by selecting an area close to the average difference value of the shadow difference image obtained in the previous frame, the shadow area can be extracted without the user's confirmation. While the frame counter n is smaller than the total number of frames to be processed (step S103), the processing of steps S104 to S109 is repeated.

【0025】以上の処理の結果、メモリ104のオブジェ
クトテーブルに書き込まれるデータの例を図5に示す。
同図においては、オブジェクトテーブルの1番に「Shade」
という影を示す従オブジェクトが、2番に「Helicopter」
というヘリコプタを示す主オブジェクトが登録され、該
主オブジェクトはそのLINK欄より、1番に登録された従
オブジェクトとリンクされていることが分かる。
FIG. 5 shows an example of data written to the object table of the memory 104 as a result of the above processing.
In the figure, “Shade” is the first object table.
The slave object showing the shadow "Helicopter" in the second
Is registered, and it can be seen from the LINK column that the main object is linked to the first registered slave object.

【0026】図2に戻り、フレームカウンタnが全フレー
ム数を超えたら(ステップS103)、CPU101はユーザに影の
処理方法の入力を促し、ユーザは端末102から該処理方
法を入力する(ステップS110)。ここで影の処理方法とは
即ち、合成の際に影をそのまま残すのか、または合成画
像において影が残ることは不都合であるため影を削除す
るのか、のいずれかを指定する。その後、画像合成によ
って新たに背景となる画像1054(図24)の画像データを記
憶装置103から読み出し、画像メモリ105の所定の領域(B
ackground)に書き込む(ステップS111)。このとき、フレ
ームカウンタnを0にセットする。そして、先頭のフレー
ムから順次合成処理を行い、合成画像をモニタ108に表
示する(ステップS113)。
Returning to FIG. 2, when the frame counter n exceeds the total number of frames (step S103), the CPU 101 prompts the user to input a shadow processing method, and the user inputs the processing method from the terminal 102 (step S110). ). Here, the shadow processing method specifies either to leave the shadow as it is at the time of the synthesis or to delete the shadow because it is inconvenient to leave the shadow in the synthesized image. Thereafter, the image data of the image 1054 (FIG. 24) serving as a new background is read out from the storage device 103 by image synthesis, and a predetermined area (B
ackground) (step S111). At this time, the frame counter n is set to 0. Then, the combining process is performed sequentially from the first frame, and the combined image is displayed on the monitor 108 (step S113).

【0027】ここで、ステップS113に示す合成・表示処
理の詳細を図6のフローチャートに示し、説明する。
Here, the details of the combining / displaying process shown in step S113 will be described with reference to the flowchart of FIG.

【0028】まず、背景画像1054の第nフレームをフレ
ームメモリ107に書き込む(ステップS120)。続いて、オ
ブジェクトテーブルに登録された主オブジェクトである
ヘリコプタ1061(図4)の画像を画像メモリ105のObject1
から読み出し(ステップS121)、フレームメモリ107上の
位置テーブルによって示される位置、またはユーザが指
示する新たな位置に上書きする(ステップS122)。尚、メ
モリ104内のオブジェクトテーブルにおいては、例えば
そのLINK欄に「1」もしくは何らかの記載があるものが主
オブジェクトとして認識される。図5に示す例では、オ
ブジェクトテーブルの1番に登録された「Shade」は従オブ
ジェクトであり、2番に登録された「Helicopter」が合成
対象の主オブジェクトであると認識される。
First, the n-th frame of the background image 1054 is written into the frame memory 107 (step S120). Subsequently, the image of the helicopter 1061 (FIG. 4), which is the main object registered in the object table, is stored in Object1 of the image memory 105.
(Step S121), and overwrites the position indicated by the position table on the frame memory 107 or a new position designated by the user (step S122). In the object table in the memory 104, for example, an object having "1" or some description in its LINK column is recognized as a main object. In the example shown in FIG. 5, “Shade” registered in No. 1 of the object table is a slave object, and “Helicopter” registered in No. 2 is recognized as a main object to be combined.

【0029】そして、先ほどステップS110で指定された
影の処理方法、即ち、上書きするのか削除するのかに応
じた影処理を行なう。(ステップS123)。影をそのまま使
用する場合は、オブジェクトテーブルにおける主オブジ
ェクトのLINK欄に基づいて、対応する従オブジェクトで
ある影1060を画像メモリ105のObject2から読み出し、位
置テーブルで示される影の位置とオブジェクトであるヘ
リコプタ1061の位置関係とに従って、フレームメモリ10
7上に上書き(ステップS124)した後、ステップS125に進
む。
Then, the shadow processing method specified in step S110, that is, shadow processing according to whether to overwrite or delete, is performed. (Step S123). When the shadow is used as it is, the corresponding slave object shadow 1060 is read from Object2 of the image memory 105 based on the LINK column of the main object in the object table, and the position of the shadow indicated by the position table and the helicopter object According to the positional relationship of 1061, the frame memory 10
After overwriting on step 7 (step S124), the process proceeds to step S125.

【0030】一方、影を削除する場合は、従オブジェク
トを無視してそのままステップS125に進む。例えば、図
24に示す背景画像1054との合成の際には、オブジェクト
1061の影が残ることは図25に示されるように不都合であ
るため、影削除が選択される。そしてステップS125にお
いて、フレームメモリ107の内容をモニタ108に表示す
る。このようにして合成され、表示された画像を図7に
示す。
On the other hand, when the shadow is to be deleted, the process proceeds to step S125 ignoring the slave object. For example, figure
When combining with the background image 1054 shown in FIG.
Since it is inconvenient that the shadow 1061 remains as shown in FIG. 25, shadow deletion is selected. Then, in step S125, the contents of the frame memory 107 are displayed on the monitor. FIG. 7 shows an image synthesized and displayed in this manner.

【0031】図2に戻り、以上説明したS113の合成・表示
処理が終わったら、フレームカウンタnに1を順次加えて
(ステップS114)、全フレーム分の合成・表示処理を繰り
返す。フレームカウンタnが全フレーム数を超えたら(ス
テップS112)、CPU101は全ての処理を終了する。
Referring back to FIG. 2, after the synthesizing / displaying process of S113 described above is completed, 1 is sequentially added to the frame counter n.
(Step S114), the synthesis / display processing for all frames is repeated. When the frame counter n exceeds the total number of frames (step S112), the CPU 101 ends all the processing.

【0032】以上説明したように本実施形態によれば、
合成するオブジェクトから影領域を抽出し、該影の処理
を合成する画像の状況に応じて選択的に行なうことによ
り、違和感のない合成画像を容易に作成することができ
る。
As described above, according to the present embodiment,
By extracting a shadow region from an object to be synthesized and selectively performing the shadow processing according to the situation of the image to be synthesized, a synthesized image without a sense of incongruity can be easily created.

【0033】尚、本実施形態においては影領域やオブジ
ェクトの抽出を背景との差分画像に基づいて行なう方法
について説明したが、本発明はこれに限定されず、例え
ば1997年映像メディア処理シンポジウム(IMPS97)I-3.15
「スポーツ番組における事前知識情報を用いたモルフォ
ロジカルセグメンテーション」(1997.10.8苗村他)等に記
載された抽出方法等を用いても構わない。これは、オブ
ジェクトである選手のいないグラウンド等の情報を背景
として予め取得しておき、該背景のカラーヒストグラム
等に基づいて動画像からオブジェクト(選手)を抽出す
るという方法である。
In this embodiment, a method of extracting a shadow area or an object based on a difference image from a background has been described. However, the present invention is not limited to this. For example, a 1997 video media processing symposium (IMPS97 ) I-3.15
The extraction method described in “Morphological segmentation using prior knowledge information in sports programs” (Oct. 8, 1997, Naemura et al.) May be used. This is a method in which information such as a ground where no player is an object is acquired in advance as a background, and an object (player) is extracted from a moving image based on a color histogram or the like of the background.

【0034】また、記憶装置103に蓄積された画像デー
タは符号化されていても構わない。この場合、MPEG-4符
号化方式のようにオブジェクト毎に分割して符号化され
ていたり、影とオブジェクトとを分離して格納されてい
ても良い。
The image data stored in the storage device 103 may be encoded. In this case, the object may be divided and encoded for each object as in the MPEG-4 encoding method, or the shadow and the object may be stored separately.

【0035】また、動画像の1フレームだけにおける処
理は、即ち静止画像に対する処理と同様である。従っ
て、本実施形態と同様の動作を静止画像に対して行うこ
とにより、静止画像においても本実施形態と同様の効果
が得られることは言うまでもない。
The processing for only one frame of a moving image is the same as the processing for a still image. Therefore, by performing the same operation as in the present embodiment on a still image, it is needless to say that the same effect as in the present embodiment can be obtained in a still image.

【0036】尚、本実施形態ではオブジェクトが1つで
ある場合について説明したが、オブジェクト数は1つに
限定されず、メモリ104の各テーブルの容量や、画像メ
モリ105の格納領域に応じて、複数のオブジェクトに対
応可能である。
In this embodiment, the case in which the number of objects is one has been described. However, the number of objects is not limited to one. Depending on the capacity of each table in the memory 104 and the storage area of the image memory 105, It can handle multiple objects.

【0037】<第2実施形態>以下、本発明に係る第2
実施形態について説明する。
<Second Embodiment> Hereinafter, a second embodiment according to the present invention will be described.
An embodiment will be described.

【0038】図8は、第2実施形態における動画像編集シ
ステムの構成を示すブロック図である。同図において、
201,202は動画像を撮像し、デジタル信号に変換して出
力するTVカメラである。尚、以下、TVカメラ201からは
図26の画像1055を撮像し、TVカメラ202からは図9に示す
画像1070を撮像する場合について説明する。203は動画
像からオブジェクトを抽出するオブジェクト抽出器であ
る。204は抽出されたオブジェクトからその影を表す領
域を従オブジェクト(影オブジェクト)として抽出し、更
に、該オブジェクトから影オブジェクトを除去した主オ
ブジェクトを出力する影抽出器である。205は抽出され
た影オブジェクトを符号化する影符号化器であり、206
は主オブジェクトを符号化するオブジェクト符号化器で
ある。オブジェクト符号化器206は主オブジェクトを動
画像として符号化するが、ここではMPEG-4符号化方式に
よる符号化を行なう例について説明する。もちろん、符
号化方式はこれに限定されない。
FIG. 8 is a block diagram showing the configuration of a moving picture editing system according to the second embodiment. In the figure,
TV cameras 201 and 202 capture moving images, convert them into digital signals, and output the digital signals. Hereinafter, a case will be described in which the image 1055 in FIG. 26 is captured from the TV camera 201 and the image 1070 illustrated in FIG. 9 is captured from the TV camera 202. An object extractor 203 extracts an object from a moving image. A shadow extractor 204 extracts a region representing the shadow from the extracted object as a slave object (shadow object), and further outputs a main object obtained by removing the shadow object from the object. A shadow encoder 205 encodes the extracted shadow object.
Is an object encoder for encoding the main object. The object encoder 206 encodes the main object as a moving image. Here, an example in which encoding is performed according to the MPEG-4 encoding method will be described. Of course, the encoding method is not limited to this.

【0039】207はTVカメラ202で撮像された動画像を符
号化する符号化器であり、その符号化方式は特に限定し
ないが、ここではMPEG-1符号化方式による符号化を行な
う例について説明する。208,209は送信器であり、生成
された符号化データを通信回線210,211に送出する。21
2,213は受信器であり、符号化データを受信する。214
はユーザが編集内容を指示する編集指示装置である。21
5は本実施形態の特徴であるところの動画像編集装置で
ある。216は符号化器であり、MPEG-1符号化方式による
符号化を行なうが、符号化方式は特に限定されない。21
7は送信器であり、通信網218に符号化データを送出す
る。219は記憶装置であり、符号化データを蓄積する。
Reference numeral 207 denotes an encoder for encoding a moving image captured by the TV camera 202. The encoding method is not particularly limited. Here, an example in which encoding is performed by the MPEG-1 encoding method will be described. I do. Reference numerals 208 and 209 denote transmitters, which transmit the generated encoded data to the communication lines 210 and 211. twenty one
2, 213 are receivers for receiving the encoded data. 214
Is an editing instruction device for the user to specify editing contents. twenty one
Reference numeral 5 denotes a moving image editing apparatus which is a feature of the present embodiment. Reference numeral 216 denotes an encoder, which performs encoding according to the MPEG-1 encoding method, but the encoding method is not particularly limited. twenty one
Reference numeral 7 denotes a transmitter for transmitting encoded data to the communication network 218. A storage device 219 stores encoded data.

【0040】このような構成をなす第2実施形態の動画
像編集システムにおける動作について、以下に説明す
る。まず、TVカメラ201,202で動画像が撮像され、符号
化が行われる。TVカメラ201から入力された動画像はオ
ブジェクト抽出器203で主オブジェクトとその影オブジ
ェクトを含むオブジェクト領域が抽出されるが、この抽
出方法は特に限定されない。例えば、上述した第1実施
形態で説明した、予め撮像した背景画像を記憶してお
き、差分画像からオブジェクト領域を抽出する方法(図2
のステップS104〜S109)を用いても良いし、他の方法で
もかまわない。第2実施形態においては、予め撮像した
背景画像に基づいて、画像1055から牛1056とその影をオ
ブジェクト領域として抽出する例について説明する。抽
出されたオブジェクト領域は影抽出器204に入力され、
主オブジェクトとその影オブジェクトとに分離される
が、この分離の方法については特に限定されない。例え
ば、第1実施形態で説明したように背景との差分値の均
一性に基づいて分離しても良いし、ユーザによるマニュ
アル抽出を行なっても構わない。ここで、このようにし
て抽出された主オブジェクトである牛1071を図10に、影
オブジェクト1072を図11に示す。尚、ここで抽出される
各オブジェクトは、実質的に該オブジェクトを含んだ矩
形領域として切り出されることは言うまでもない。
The operation of the moving picture editing system according to the second embodiment having such a configuration will be described below. First, moving images are captured by the TV cameras 201 and 202, and are encoded. From the moving image input from the TV camera 201, an object area including the main object and its shadow object is extracted by the object extractor 203, but the extraction method is not particularly limited. For example, the method of storing the previously captured background image and extracting the object area from the difference image described in the first embodiment (FIG. 2)
Steps S104 to S109) may be used, or another method may be used. In the second embodiment, an example will be described in which a cow 1056 and its shadow are extracted as an object area from an image 1055 based on a background image captured in advance. The extracted object area is input to the shadow extractor 204,
Although it is separated into a main object and its shadow object, the method of this separation is not particularly limited. For example, as described in the first embodiment, separation may be performed based on the uniformity of the difference value from the background, or manual extraction by the user may be performed. Here, the cow 1071, which is the main object thus extracted, is shown in FIG. 10, and the shadow object 1072 is shown in FIG. It is needless to say that each object extracted here is substantially cut out as a rectangular area including the object.

【0041】抽出された主オブジェクトである牛1071は
オブジェクト符号化器206に入力され、MPEG-4符号化方
式で符号化される。MPEG-4符号化方式によれば、オブジ
ェクトの形状を表すマスク情報と、画像の画素値とをそ
れぞれ符号化する。一方、抽出された影オブジェクト10
72は、影符号化器205に入力される。影符号化器205にお
いては、MPEG-4符号化方式と同様に、形状符号化と影の
強度の符号化を行う。尚、影抽出器204においては、前
段のオブジェクト抽出器203において参照された予め撮
像された背景画像のうち、影オブジェクトの位置に相当
する画像を、影符号化器205に対して出力する。
The cow 1071 as the extracted main object is input to the object encoder 206, and is encoded by the MPEG-4 encoding method. According to the MPEG-4 encoding method, mask information representing the shape of an object and pixel values of an image are encoded. On the other hand, the extracted shadow object 10
72 is input to the shadow encoder 205. The shadow encoder 205 performs shape encoding and shadow intensity encoding, as in the MPEG-4 encoding method. The shadow extractor 204 outputs, to the shadow encoder 205, an image corresponding to the position of the shadow object among the previously captured background images referred to by the object extractor 203 in the preceding stage.

【0042】ここで図12に、影符号化器205のブロック
構成図を示す。同図において、230は影抽出器204から影
オブジェクトを含む矩形領域の画像を入力する端子であ
る。231は影抽出器204から影オブジェクトの領域の背景
画像を入力する端子である。232はマスク生成器であ
り、画素が影オブジェクトに含まれるか否かを1/0の2値
画像で表現することにより、影オブジェクトの形状情報
を示すマスクを生成する。233は該マスクを格納するマ
スクメモリである。234はマスクメモリ233の内容を算術
符号化する符号化器である。235はマスクによって影領
域内に存在すると判定される画素について、同一位置の
背景画素と影オブジェクトの画素値の差分を求める差分
器である。236は領域内画素について、求められた差分
値の総和をマスクにおいて画素値が1である画素数、即
ち影オブジェクト内に存在する画素数で割り、平均値を
求める平均値算出器である。237は算出された平均値に
符号を割り当てる符号化器である。238は符号化器234と
符号化器237で生成された符号を合成して整える合成器
である。239は合成された符号化データを出力する端子
である。
FIG. 12 shows a block diagram of the shadow encoder 205. As shown in FIG. In the figure, reference numeral 230 denotes a terminal for inputting an image of a rectangular area including a shadow object from the shadow extractor 204. Reference numeral 231 denotes a terminal for inputting a background image of a shadow object area from the shadow extractor 204. A mask generator 232 generates a mask indicating the shape information of the shadow object by expressing whether or not the pixel is included in the shadow object by a 1/0 binary image. 233 is a mask memory for storing the mask. An encoder 234 arithmetically encodes the contents of the mask memory 233. Reference numeral 235 denotes a differentiator for calculating the difference between the background pixel at the same position and the pixel value of the shadow object for the pixel determined to be present in the shadow area by the mask. An average value calculator 236 divides the sum of the obtained difference values for the pixels in the area by the number of pixels having a pixel value of 1 in the mask, that is, the number of pixels existing in the shadow object, and obtains an average value. An encoder 237 assigns a code to the calculated average value. Reference numeral 238 denotes a combiner for combining the codes generated by the encoder 234 and the encoder 237 and adjusting the codes. Reference numeral 239 denotes a terminal that outputs the combined encoded data.

【0043】かかる構成をなす影符号化器205における
動作について以下に説明する。端子230から入力された
影オブジェクトを含む画像(影1072)は、マスク生成器23
2と差分器252に入力される。マスク生成器232において
は、画素が影の閉領域の内側にあるか外側にあるかによ
って影オブジェクトに含まれるか否かを判定し、その結
果を1/0の2値画像のマスクとして出力する。即ち、該マ
スクは影の形状情報を示す。ここで図13に、図11の影10
72におけるマスク情報を示す。このマスクはマスクメモ
リ233に格納される。マスクメモリ233に格納された2値
画像のマスクは、符号化器234で符号化される。また、
差分器235においては、影オブジェクトとその背景画像
との画素値について差分を求め、平均値算出器236に入
力する。平均値算出器236では、これらの差分の総和を
求め、マスクメモリ233に格納されているマスクにおけ
る画素値が「1」、即ち影領域内である画素数で割って平
均値を求める。この平均値は符号化器237で符号化され
る。符号化器234と符号化器237で生成された符号化デー
タは合成器238で合成され、整えられて端子239から出力
される。
The operation of the shadow encoder 205 having such a configuration will be described below. The image including the shadow object (shadow 1072) input from the terminal 230 is
2 and input to the differentiator 252. The mask generator 232 determines whether the pixel is included in the shadow object depending on whether the pixel is inside or outside the closed area of the shadow, and outputs the result as a mask of a 1/0 binary image. . That is, the mask indicates shadow shape information. Here, FIG. 13 shows the shadow 10 of FIG.
72 shows the mask information in 72. This mask is stored in the mask memory 233. The mask of the binary image stored in the mask memory 233 is encoded by the encoder 234. Also,
In the differentiator 235, the difference between the pixel value of the shadow object and the pixel value of the background image is obtained, and the difference is input to the average calculator 236. The average value calculator 236 calculates the total sum of these differences, and divides the pixel value in the mask stored in the mask memory 233 by “1”, that is, the number of pixels in the shadow area to obtain the average value. This average value is encoded by the encoder 237. The encoded data generated by the encoder 234 and the encoder 237 are combined by the combiner 238, adjusted, and output from the terminal 239.

【0044】図8に戻り、オブジェクト符号化器206で生
成された符号化データと、影符号化器205で生成された
符号化データは送信器208に入力され、符号化データを
整えて通信回線210に送信される。
Returning to FIG. 8, the coded data generated by the object coder 206 and the coded data generated by the shadow coder 205 are input to a transmitter 208, where the coded data is prepared and a communication line is prepared. Sent to 210.

【0045】一方、TVカメラ202で撮像された画像デー
タは、符号化器207でMPEG-1符号化方式によって符号化
され、送信器209を介して通信回線211に送出される。TV
カメラ202で撮像された画像データは合成画像の背景画
像となる(図9の背景画像1070)。
On the other hand, the image data picked up by the TV camera 202 is encoded by the encoder 207 according to the MPEG-1 encoding method, and transmitted to the communication line 211 via the transmitter 209. TV
The image data captured by the camera 202 becomes a background image of the composite image (background image 1070 in FIG. 9).

【0046】受信器212,213は、これらの符号化データ
を受信し、動画像編集装置215に入力する。動画像編集
装置215は、ユーザが編集指示装置214から入力した指示
に従って、動画像を編集する。以下、ユーザによる編集
指示として、合成するオブジェクトの背景画像1070内に
おける位置、オブジェクトの大きさ、及び影の強度が動
画像編集装置215に入力された場合を例として説明す
る。
The receivers 212 and 213 receive these encoded data and input them to the moving picture editing device 215. The moving image editing device 215 edits a moving image according to an instruction input by the user from the editing instruction device 214. Hereinafter, a case where the position of the object to be combined in the background image 1070, the size of the object, and the intensity of the shadow are input to the moving image editing device 215 as an editing instruction by the user will be described as an example.

【0047】図14に、動画像編集装置215のブロック構
成を示す。同図において、250は受信器212から合成対象
となるオブジェクトの符号化データを入力する端子であ
る。251は受信器213から背景となる画像の符号化データ
を入力する端子である。252は編集指示装置214からの編
集指示を入力する端子である。253は分離器であり、受
信器212から入力された符号化データから、主オブジェ
クトの形状を表す符号化データ、主オブジェクトの画素
値の符号化データ、影の強度を示す符号化データ、影の
形状を表す符号化データをそれぞれ分離する。254は主
オブジェクトの形状を表すマスク情報を復号するマスク
復号器であり、255はその結果を格納するマスクメモリ
である。256は主オブジェクトの画素値を復号するオブ
ジェクト復号器であり、257はその結果を格納するオブ
ジェクトメモリである。258は影の強度を復号する復号
器であり、259はその結果を格納するラッチである。260
は影の形状を表すマスク情報を復号するマスク復号器で
あり、261はその結果を格納するマスクメモリである。
FIG. 14 shows a block configuration of the moving image editing device 215. In the figure, reference numeral 250 denotes a terminal for inputting encoded data of an object to be synthesized from the receiver 212. Reference numeral 251 denotes a terminal for inputting encoded data of a background image from the receiver 213. Reference numeral 252 denotes a terminal for inputting an editing instruction from the editing instruction device 214. Reference numeral 253 denotes a separator, from encoded data input from the receiver 212, encoded data representing the shape of the main object, encoded data of the pixel value of the main object, encoded data indicating the intensity of the shadow, and shadow data. The coded data representing the shape is separated. Reference numeral 254 denotes a mask decoder that decodes mask information representing the shape of the main object, and 255 denotes a mask memory that stores the result. 256 is an object decoder for decoding the pixel value of the main object, and 257 is an object memory for storing the result. 258 is a decoder for decoding the intensity of the shadow, and 259 is a latch for storing the result. 260
Is a mask decoder for decoding mask information representing the shape of the shadow, and 261 is a mask memory for storing the result.

【0048】262は受信器213から入力された背景画像の
符号化データを復号する復号器であり、MPEG-1符号化方
式の復号処理が行われる。263はその結果を格納するフ
レームメモリである。264,265,266,267は、編集指示
装置214からの指示に従って、入力画像に対して拡大・
縮小の変倍処理、回転処理、アフィン変換処理等による
各種変形を施す変形器である。268は影合成器であり、
編集指示装置214からの指示に従って、背景画像に影オ
ブジェクトを合成する。269は画像合成器であり、影合
成器268の出力に対して変形器264,265で変形された主
オブジェクトを合成する画像合成器である。270は合成
された結果を出力する端子である。
Reference numeral 262 denotes a decoder for decoding the encoded data of the background image input from the receiver 213, and performs a decoding process of the MPEG-1 encoding method. A frame memory 263 stores the result. 264, 265, 266, and 267 enlarge / enlarge the input image in accordance with the instruction from the editing instruction device 214.
This is a deformer that performs various deformations such as reduction / magnification processing, rotation processing, and affine transformation processing. 268 is a shadow synthesizer,
According to an instruction from the editing instruction device 214, a shadow object is synthesized with the background image. Reference numeral 269 denotes an image synthesizer which synthesizes the output of the shadow synthesizer 268 with the main object deformed by the deformers 264 and 265. Reference numeral 270 denotes a terminal for outputting a result of the synthesis.

【0049】このような構成からなる動画像編集装置21
5における動作について、以下に説明する。端子250は、
受信器212で受信した符号化データを分離器253に入力す
る。分離器253では、各符号のヘッダ等を参照して符号
化データを分割し、後段のそれぞれの復号器に出力す
る。即ち、主オブジェクトの形状を表す符号化データを
マスク復号器254に、主オブジェクトの画素値の符号化
データをオブジェクト復号器256に、影の強度の符号化
データを復号器258に、影オブジェクトのマスクの符号
化データを復号器260に出力する。
The moving picture editing apparatus 21 having such a configuration
The operation in 5 will be described below. Terminal 250 is
The encoded data received by receiver 212 is input to separator 253. The demultiplexer 253 divides the coded data with reference to the header of each code and outputs the coded data to the respective subsequent decoders. That is, the encoded data representing the shape of the main object is supplied to the mask decoder 254, the encoded data of the pixel value of the main object is supplied to the object decoder 256, the encoded data of the shadow intensity is supplied to the decoder 258, and the The encoded data of the mask is output to decoder 260.

【0050】マスク復号器254は主オブジェクトのマス
クデータを復号し、マスク情報を再生してマスクメモリ
255に格納する。オブジェクト復号器256は主オブジェク
トの画像の符号化データを復号し、主オブジェクトの画
素値を再生してオブジェクトメモリ257に格納する。復
号器258は影オブジェクトの影の強度を復号し、ラッチ2
59に格納する。マスク復号器260は影オブジェクトのマ
スクデータを復号し、マスク情報を再生してマスクメモ
リ261に格納する。復号器262は背景画像の符号化データ
を復号し、背景画像の画素値を再生してフレームメモリ
263に格納する。
The mask decoder 254 decodes the mask data of the main object, reproduces the mask information, and
Store in 255. The object decoder 256 decodes the encoded data of the image of the main object, reproduces the pixel value of the main object, and stores it in the object memory 257. Decoder 258 decodes the shadow intensity of the shadow object and latch 2
Store in 59. The mask decoder 260 decodes the mask data of the shadow object, reproduces the mask information, and stores the mask information in the mask memory 261. The decoder 262 decodes the encoded data of the background image, reproduces the pixel value of the background image, and
Store in 263.

【0051】編集指示装置214から入力された拡大・縮
小の変倍処理、回転処理、アフィン変換処理等の変形処
理のパラメータは、変形器264,265,266,267に入力さ
れる。以下、オブジェクトを背景画像の大きさにあわせ
て縮小してから合成を行なう場合を例として説明する。
変形器264,265,266は、編集指示装置214からパラメー
タとして縮小率が入力される。変形器264はマスクメモ
リ255の内容を縮小して出力する。変形器265はオブジェ
クトメモリ257の内容を縮小して出力する。変形器266は
マスクメモリ261の内容を縮小して出力する。尚この場
合、オブジェクトのみを縮小すれば良いため、背景画像
を変形する変形器267においては、フレームメモリ263の
内容をそのまま出力する。
The parameters of transformation processing such as scaling processing, rotation processing, affine transformation processing and the like input from the editing instruction device 214 are inputted to the transformers 264, 265, 266 and 267. Hereinafter, a case will be described as an example where the composition is performed after the object is reduced according to the size of the background image.
The transform units 264, 265, and 266 receive the reduction ratio as a parameter from the editing instruction device 214. The deformer 264 reduces the content of the mask memory 255 and outputs it. The deformer 265 reduces the contents of the object memory 257 and outputs the reduced contents. The deformer 266 reduces the contents of the mask memory 261 and outputs it. In this case, since only the object needs to be reduced, the content of the frame memory 263 is output as it is in the deformer 267 for deforming the background image.

【0052】影合成器268は、ラッチ259に格納されてい
る影の強度を表す平均値m、及び編集指示装置214から入
力された影強度の変更パラメータpに基づいて、次式に
従って実際に合成する影の強度Sを算出する。
The shadow synthesizer 268 actually synthesizes the shadow in accordance with the following equation based on the average value m representing the shadow intensity stored in the latch 259 and the shadow intensity change parameter p input from the editing instruction device 214. The intensity S of the shadow to be calculated is calculated.

【0053】S = m × p …(1) さらに、影オブジェクトを合成する位置を、編集指示装
置214から入力された主オブジェクトを合成する位置、
及び主オブジェクトと影オブジェクトとの相対的な位置
関係に基づいて決定する。そして、変形器267から出力
された背景画像の変形結果に対して、算出された位置に
影オブジェクトを合成する。具体的には、マスクメモリ
261に保持されたマスク情報の変形結果、即ち、合成す
べき影の形状情報に従って、影オブジェクトが合成され
る位置にある画素については、背景画像の画素値bと影
の強度Sから次式によって得られる新たな画素値Cに変換
する。
S = m × p (1) Further, the position at which the shadow object is synthesized is determined by the position at which the main object input from the editing instruction device 214 is synthesized,
And the relative positional relationship between the main object and the shadow object. Then, a shadow object is synthesized at the calculated position with respect to the deformation result of the background image output from the deformer 267. Specifically, the mask memory
According to the deformation result of the mask information held in 261, that is, the pixel at the position where the shadow object is synthesized according to the shape information of the shadow to be synthesized, the pixel value b of the background image and the intensity S of the shadow are calculated by the following equation. Convert to the new pixel value C obtained.

【0054】C = b - S …(2) このようにして影オブジェクトが合成された背景画像
は、画像合成器269に入力される。画像合成器269におい
ては、編集指示装置214から入力された主オブジェクト
を合成する位置及び、マスクメモリ255に保持された主
オブジェクトのマスクデータ(形状情報)の変形結果に従
って、主オブジェクトが合成される画素については背景
画像の画素値を該主オブジェクトの画素値に置換する。
そしてその合成結果が、端子270から図8に示す符号化器
216に出力される。ここで図15に、図9に示す背景画像10
70にオブジェクトである牛1056を縮小して影と共に合成
した画像を示す。図15によれば、牛の影の部分において
背景であるアスファルト路面の画像が反映されているた
め、従来例において示した図28の画像と比較して違和感
をかなり抑制できたことが分かる。即ち、主オブジェク
トの影部分についても、自然な合成がなされていること
が分かる。
C = b−S (2) The background image in which the shadow object is synthesized in this manner is input to the image synthesizer 269. In the image synthesizer 269, the main object is synthesized according to the position where the main object input from the editing instruction device 214 is to be synthesized and the mask data (shape information) of the main object stored in the mask memory 255. As for the pixel, the pixel value of the background image is replaced with the pixel value of the main object.
Then, the result of the synthesis is sent from the terminal 270 to the encoder shown in FIG.
Output to 216. Here, FIG. 15 shows the background image 10 shown in FIG.
Shown at 70 is an image obtained by reducing a cow 1056 as an object and combining it with a shadow. According to FIG. 15, since the image of the asphalt road surface, which is the background, is reflected in the shadow portion of the cow, it can be seen that the sense of incongruity was considerably suppressed as compared with the image of FIG. 28 shown in the conventional example. In other words, it can be seen that natural composition is also performed for the shadow portion of the main object.

【0055】図8に戻り、符号化器216は合成された画像
データをMPEG-1符号化方式で符号化し、送信器217を介
して通信網218に送出したり、記憶装置219の所定の位置
に格納する。
Returning to FIG. 8, the encoder 216 encodes the combined image data by the MPEG-1 encoding method and sends the encoded image data to the communication network 218 via the transmitter 217. To be stored.

【0056】以上説明したように第2実施形態によれ
ば、合成対象となるオブジェクトから影領域を抽出して
主オブジェクトのみを符号化することにより、符号化す
べき画素数を削減することができるとともに、抽出した
影領域を影オブジェクトとしてその形状と強度のみで表
示し、符号化することにより、情報量の大幅な削減が可
能となり、通信コストや記憶媒体の容量を削減できる。
As described above, according to the second embodiment, the number of pixels to be coded can be reduced by extracting the shadow area from the object to be synthesized and coding only the main object. By displaying and encoding the extracted shadow region as a shadow object using only its shape and intensity, the amount of information can be significantly reduced, and the communication cost and the capacity of the storage medium can be reduced.

【0057】さらに、合成する画像の状況に応じて、変
形や影の強度の調整を行うことで、違和感のない合成画
像を容易に生成することができる。
Further, by adjusting the intensity of the deformation and the shadow according to the situation of the image to be synthesized, it is possible to easily generate a synthesized image without a sense of incongruity.

【0058】尚、第2実施形態においては、影強度を0に
指定することにより、上述した第1実施形態と同様に影
を付与しない合成を行なうことも可能である。
In the second embodiment, by designating the shadow intensity to be 0, it is also possible to perform synthesis without adding a shadow as in the first embodiment.

【0059】また、第2実施形態においては、影符号化
器205で影オブジェクトの形状と強度の代表値を符号化
する例について説明したが、本発明はこれに限定され
ず、影の強度として、背景画像との差分値でも、黒画素
を上に重畳する時の透過度を用いてもかまわない。ま
た、差分値に対する多値の符号化を行ってももちろん構
わない。
Further, in the second embodiment, an example in which the shadow encoder 205 encodes the representative value of the shape and the intensity of the shadow object has been described. However, the present invention is not limited to this, and the shadow intensity is not limited to this. Alternatively, the difference value from the background image may be used, or the transmittance when the black pixel is superimposed on the black image may be used. Also, multi-value encoding for the difference value may be performed.

【0060】また、第2実施形態における変形処理も上
述した例に限定されず、他の変形処理であってももちろ
んかまわない。また、符号化器216においてフレーム単
位の符号化であるMPEG-1を行なうとして説明したが、MP
EG-4符号化方式のように各オブジェクトを分離したまま
で再度符号化を行なっても良い。
Further, the modification processing in the second embodiment is not limited to the above-described example, and may be another modification processing. Also, it has been described that the encoder 216 performs MPEG-1 which is encoding on a frame basis.
Encoding may be performed again while each object is separated as in the EG-4 encoding method.

【0061】また、動画像の1フレームだけにおける処
理は、即ち静止画像に対する処理と同様であるため、第
2実施形態と同様の動作を静止画像に対して行うことに
より、静止画像においても第2実施形態と同様の効果が
得られることは言うまでもない。
Since the processing for only one frame of a moving image is the same as the processing for a still image,
It is needless to say that by performing the same operation on the still image as in the second embodiment, the same effect as in the second embodiment can be obtained on the still image.

【0062】<第3実施形態>以下、本発明に係る第3
実施形態について説明する。
Third Embodiment Hereinafter, a third embodiment according to the present invention will be described.
An embodiment will be described.

【0063】図16は、第3実施形態における動画像編集
システムの構成を示すブロック図である。同図におい
て、上述した第2実施例で示した図8と同様の構成につい
ては同一番号を付し、説明を省略する。即ち図16に示す
構成においては、TVカメラ201の画像を送信する際に、
影の抽出及び符号化を行わないことを特徴とする。
FIG. 16 is a block diagram showing the configuration of the moving picture editing system according to the third embodiment. In the figure, the same components as those in FIG. 8 shown in the above-described second embodiment are denoted by the same reference numerals, and description thereof will be omitted. That is, in the configuration shown in FIG. 16, when transmitting the image of the TV camera 201,
It is characterized in that shadow extraction and encoding are not performed.

【0064】このような構成において、TVカメラ201,2
02で動画像が撮像され、符号化が行われる。TVカメラ20
1から入力された動画像は、第2実施形態におけるオブジ
ェクト抽出器203及び影抽出器204における処理と同様
に、オブジェクト抽出器303で主オブジェクトを抽出す
る。ここでは、図26に示す画像1055から牛1056を抽出
し、図10に示す主オブジェクト1071を得たとする。抽出
された主オブジェクトである牛1071はオブジェクト符号
化器206に入力され、MPEG-4符号化方式で符号化され
る。MPEG-4符号化方式によれば、オブジェクトの形状を
表すマスク情報と、画像の画素値とをそれぞれ符号化す
る。一方、TVカメラ202で撮像された画像データは、符
号化器207でMPEG-1符号化方式によって符号化され、送
信器209を介して通信回線211に送出される。TVカメラ20
2で撮像された画像データは合成画像の背景画像となる
(図9の背景画像1070)。
In such a configuration, the TV cameras 201 and 2
In 02, a moving image is captured and encoded. TV camera 20
The main object is extracted by the object extractor 303 from the moving image input from 1 in the same manner as the processing in the object extractor 203 and the shadow extractor 204 in the second embodiment. Here, it is assumed that the cow 1056 is extracted from the image 1055 shown in FIG. 26 and the main object 1071 shown in FIG. 10 is obtained. The cow 1071 as the extracted main object is input to the object encoder 206, and is encoded by the MPEG-4 encoding method. According to the MPEG-4 encoding method, mask information representing the shape of an object and pixel values of an image are encoded. On the other hand, image data picked up by the TV camera 202 is encoded by the encoder 207 according to the MPEG-1 encoding method, and transmitted to the communication line 211 via the transmitter 209. TV camera 20
The image data captured in step 2 becomes the background image of the composite image
(Background image 1070 in FIG. 9).

【0065】受信器212,213は、これらの符号化データ
を受信し、動画像編集装置300に入力する。動画像編集
装置300は、ユーザが編集指示装置214から入力した指示
に従って、動画像を編集する。以下、ユーザによる編集
指示として、合成するオブジェクトの背景画像1070内に
おける位置、オブジェクトの大きさ、影の強度、及び影
の方向が動画像編集装置215に入力された場合を例とし
て説明する。
The receivers 212 and 213 receive these encoded data and input them to the moving picture editing apparatus 300. The moving image editing device 300 edits a moving image in accordance with an instruction input by the user from the editing instruction device 214. Hereinafter, a case where the position of the object to be combined in the background image 1070, the size of the object, the strength of the shadow, and the direction of the shadow are input to the moving image editing device 215 as an editing instruction by the user will be described as an example.

【0066】図17に、動画像編集装置300のブロック構
成を示す。同図において、上述した第2実施形態で示し
た図14と同じ機能を有する構成については同一番号を付
し、詳細な説明は省略する。301は主オブジェクトであ
る牛1071の形状を表すマスク情報から従オブジェクトで
ある影を生成する影生成器である。302は生成された影
の合成を行う影合成器である。
FIG. 17 shows a block configuration of the moving image editing apparatus 300. In the figure, components having the same functions as those in FIG. 14 shown in the above-described second embodiment are denoted by the same reference numerals, and detailed description will be omitted. Reference numeral 301 denotes a shadow generator which generates a shadow as a slave object from mask information indicating the shape of the cow 1071 as a main object. Reference numeral 302 denotes a shadow synthesizer that synthesizes the generated shadow.

【0067】このような構成をなす動画像編集装置300
において、端子250は、受信器212で受信した符号化デー
タを分離器253に入力する。分離器253では、各符号のヘ
ッダ等を参照して符号化データを分割し、後段のそれぞ
れの復号器に出力する。即ち、オブジェクトの形状を表
す符号化データをマスク復号器254に、オブジェクトの
画素値の符号化データをオブジェクト復号器256に出力
する。
The moving picture editing apparatus 300 having such a configuration
, The terminal 250 inputs the encoded data received by the receiver 212 to the separator 253. The demultiplexer 253 divides the coded data with reference to the header of each code and outputs the coded data to the respective subsequent decoders. That is, encoded data representing the shape of the object is output to the mask decoder 254, and encoded data of the pixel value of the object is output to the object decoder 256.

【0068】マスク復号器254はオブジェクトのマスク
データを復号し、マスク情報を再生してマスクメモリ25
5に格納する。オブジェクト復号器256はオブジェクトの
画像の符号化データを復号し、オブジェクトの画素値を
再生してオブジェクトメモリ257に格納する。復号器262
は背景画像の符号化データを復号し、背景画像の画素値
を再生してフレームメモリ263に格納する。
The mask decoder 254 decodes the mask data of the object, reproduces the mask information, and reproduces the mask information.
Store in 5. The object decoder 256 decodes the encoded data of the image of the object, reproduces the pixel value of the object, and stores it in the object memory 257. Decoder 262
Decodes the encoded data of the background image, reproduces the pixel value of the background image, and stores it in the frame memory 263.

【0069】編集指示装置214から入力された拡大・縮
小の変倍処理、回転処理、アフィン変換処理等の変形処
理のパラメータは、変形器264,265,影生成器301に入
力される。以下、オブジェクトを背景画像の大きさにあ
わせて縮小する場合を例として説明する。変形器264,2
65は、編集指示装置214からパラメータとして縮小率を
入力する。変形器264はマスクメモリ255の内容を縮小し
て出力する。変形器265はオブジェクトメモリ257の内容
を縮小して出力する。尚、変形器267においては、背景
画像を保持しているフレームメモリ263の内容をそのま
ま出力する。
The parameters of the transformation processing such as scaling processing, rotation processing, affine transformation processing and the like input from the editing instruction device 214 are input to the deformers 264 and 265 and the shadow generator 301. Hereinafter, a case where the object is reduced in accordance with the size of the background image will be described as an example. Transformers 264, 2
Numeral 65 inputs the reduction ratio as a parameter from the editing instruction device 214. The deformer 264 reduces the content of the mask memory 255 and outputs it. The deformer 265 reduces the contents of the object memory 257 and outputs the reduced contents. Note that the deformer 267 outputs the contents of the frame memory 263 holding the background image as it is.

【0070】影生成器301は、マスクメモリ255から形状
情報を表す2値画像を読み出して反転させることによ
り、主オブジェクトである牛1071の影(従オブジェクト)
の基本形状を作成する。図18に、生成された影の基本形
状1080を示す。この基本形状に対して、編集指示装置21
4から影の形状を変形させるためのパラメータを入力す
る。この形状の変形パラメータは、変形器264,265に与
えられた変形パラメータに対して更に、光線の方向を加
味して決定される。尚、これらの調整は画像を実際に合
成してみてから再調整しても構わない。また、1度決定
された変形パラメータは、別なフレームの編集にも用い
ることができる。また、合成するオブジェクトが複数で
あれば、他のオブジェクトの変形パラメータを用いた
り、影オブジェクトを伴うオブジェクトがあればその付
置関係から変形パラメータを求めることは容易に可能で
ある。また、合成する背景画像に存在している影を検知
し、その影を作っている物体との位置関係等から、該背
景において最も適切な光線方向を決定することも可能で
ある。図19に、これらの変形パラメータによって影の基
本形状1080を変形した例を示す。
The shadow generator 301 reads the binary image representing the shape information from the mask memory 255 and inverts the binary image to indicate the shadow (sub-object) of the cow 1071 as the main object.
Create the basic shape of. FIG. 18 shows the basic shape 1080 of the generated shadow. The editing instruction device 21
Enter the parameters to change the shape of the shadow from 4. The deformation parameter of this shape is determined in consideration of the direction of the light ray in addition to the deformation parameters given to the deformers 264 and 265. It should be noted that these adjustments may be made again after actually synthesizing the images. Also, the once determined deformation parameters can be used for editing another frame. Further, if there are a plurality of objects to be combined, it is possible to easily use the deformation parameters of another object, or to obtain the deformation parameters from the arrangement of objects having a shadow object. Further, it is also possible to detect a shadow existing in the background image to be synthesized and determine the most appropriate ray direction in the background from the positional relationship with the object forming the shadow. FIG. 19 shows an example in which the basic shape 1080 of the shadow is deformed by these deformation parameters.

【0071】影合成器302においては、影生成器301で生
成された従オブジェクトである影の画像を、その形状
と、編集指示装置214から出力される影の強度と、影を
合成する位置とに従って、背景画像の変形結果に合成す
る。このようにして従オブジェクトである影が合成され
た背景画像は、画像合成器269に入力される。画像合成
器269においては、編集指示装置214から入力された主オ
ブジェクトを合成する位置及び、マスクメモリ255に保
持された主オブジェクトのマスクデータの変形結果に従
って、主オブジェクトが合成される画素については背景
画像の画素値を主オブジェクトの画素値に置換する。そ
してその合成結果が、端子270から図16に示す符号化器2
16に出力される。ここで図20に、図9に示す背景画像107
0にオブジェクトである牛1056を縮小して、更に影を付
加して合成した画像を示す。第2実施形態において示し
た図15の画像との比較からも容易に分かるように、第3
実施形態においては影の方向を任意に変更することがで
きる。
In the shadow synthesizer 302, the image of the shadow, which is the slave object generated by the shadow generator 301, is represented by its shape, the intensity of the shadow output from the editing instruction device 214, and the position where the shadow is synthesized. In accordance with the transformation result of the background image. The background image in which the shadow as the slave object is synthesized in this way is input to the image synthesizer 269. In the image synthesizer 269, the pixels on which the main object is to be synthesized have a background according to the position at which the main object input from the editing instruction device 214 is to be synthesized and the mask data of the main object held in the mask memory 255. Replace the pixel values of the image with the pixel values of the main object. Then, the synthesis result is sent from the terminal 270 to the encoder 2 shown in FIG.
Output to 16. Here, FIG. 20 shows the background image 107 shown in FIG.
An image obtained by reducing the cow 1056 as an object to 0 and adding a shadow to the image is shown. As can be easily understood from the comparison with the image of FIG. 15 shown in the second embodiment, the third
In the embodiment, the direction of the shadow can be arbitrarily changed.

【0072】図16に戻り、符号化器216は合成された画
像データをMPEG-1符号化方式で符号化し、送信器217を
介して通信網218に送出したり、記憶装置219の所定の位
置に格納する。
Returning to FIG. 16, the encoder 216 encodes the combined image data by the MPEG-1 encoding method and sends it out to the communication network 218 via the transmitter 217 or to a predetermined position in the storage device 219. To be stored.

【0073】以上説明したように第3実施形態によれ
ば、合成する主オブジェクトの形状情報に基づいて、任
意の方向に従オブジェクトである影を生成して付加する
ことで、例えば背景に存在している影の方向と主オブジ
ェクトの影の方向とを一致させる等、合成画像における
違和感の抑制を容易に行うことができる。
As described above, according to the third embodiment, a shadow, which is an object according to an arbitrary direction, is generated and added based on the shape information of the main object to be synthesized. It is possible to easily suppress discomfort in the synthesized image, for example, by matching the direction of the shadow being cast with the direction of the shadow of the main object.

【0074】尚、第3実施形態における変形処理も上述
した例に限定されず、他の変形処理であってももちろん
かまわない。また、符号化器216においてフレーム単位
の符号化であるMPEG-1を行なうとして説明したが、MPEG
-4符号化方式のように各オブジェクトを分離したままで
再度符号化を行なっても良い。
Note that the modification processing in the third embodiment is not limited to the above-described example, and may be another modification processing. Also, it has been described that the encoder 216 performs MPEG-1 which is encoding on a frame basis.
Encoding may be performed again with each object separated as in the -4 encoding method.

【0075】また、第3実施形態においては、主オブジ
ェクトに対して影を合成した画像をMPEG-1符号化方式で
符号化する例について説明したが、この影である従オブ
ジェクトについては、形状と影の強度を用いた符号化
や、MPEG-4符号化方式による符号化を行なってももちろ
ん構わない。
In the third embodiment, an example in which an image obtained by combining a shadow with the main object is encoded by the MPEG-1 encoding method has been described. Of course, coding using the strength of the shadow or coding using the MPEG-4 coding method may be performed.

【0076】また、動画像の1フレームだけにおける処
理は、即ち静止画像に対する処理と同様であるため、第
3実施形態と同様の動作を静止画像に対して行うことに
より、静止画像においても第3実施形態と同様の効果が
得られることは言うまでもない。
Since the processing for only one frame of a moving image is the same as the processing for a still image,
By performing the same operation on the still image as in the third embodiment, it goes without saying that the same effect as in the third embodiment can be obtained on the still image.

【0077】<他の実施形態>なお、本発明は、複数の
機器(例えばホストコンピュータ,インタフェイス機
器,リーダ,プリンタなど)から構成されるシステムに
適用しても、一つの機器からなる装置(例えば、複写
機,ファクシミリ装置など)に適用してもよい。
<Other Embodiments> Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus including one device (for example, For example, the present invention may be applied to a copying machine, a facsimile machine, and the like.

【0078】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
Further, an object of the present invention is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU) of the system or the apparatus.
And MPU) read and execute the program code stored in the storage medium.

【0079】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0080】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0081】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0082】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instructions of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0083】[0083]

【発明の効果】以上説明したように本発明によれば、主
オブジェクトとそれに付随する例えば影のような従オブ
ジェクトとを含むオブジェクトに対して好適な画像処理
が可能となる。
As described above, according to the present invention, it is possible to perform suitable image processing on an object including a main object and a subsidiary object attached thereto, such as a shadow, for example.

【0084】例えば、主オブジェクトと従オブジェクト
とを関連付け、主オブジェクトの画像処理結果を従オブ
ジェクトの画像処理結果に反映することで、違和感のな
い自然な画像の合成を少ない情報量で実現することがで
きる。
For example, by associating a master object with a slave object and reflecting the image processing result of the master object on the image processing result of the slave object, it is possible to realize a natural image synthesis without a sense of discomfort with a small amount of information. it can.

【0085】また、従オブジェクトを持たないオブジェ
クトに対しても、その形状に基づいて従オブジェクトで
ある影を生成して付加することができるため、さらに自
然な画像の合成が可能となる。
Further, a shadow which is a slave object can be generated and added to an object having no slave object based on its shape, so that a more natural image can be synthesized.

【0086】[0086]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る一実施形態における動画像編集装
置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a moving image editing device according to an embodiment of the present invention.

【図2】本実施形態における画像編集処理手順を示すフ
ローチャートである。
FIG. 2 is a flowchart illustrating an image editing processing procedure according to the embodiment.

【図3】本実施形態における従オブジェクトである影の
様子を表す図である。
FIG. 3 is a diagram illustrating a state of a shadow that is a slave object in the present embodiment.

【図4】本実施形態における主オブジェクトの様子を表
す図である。
FIG. 4 is a diagram illustrating a state of a main object in the present embodiment.

【図5】本実施形態におけるオブジェクトテーブルの内
容を説明するための図である。
FIG. 5 is a diagram for describing the contents of an object table in the present embodiment.

【図6】本実施形態における合成・表示処理手順を示すフ
ローチャートである。
FIG. 6 is a flowchart illustrating a synthesis / display processing procedure according to the present embodiment.

【図7】本実施形態における画像合成の結果を表す図で
ある。
FIG. 7 is a diagram illustrating a result of image composition in the present embodiment.

【図8】本発明に係る第2実施形態における動画像編集シ
ステムの構成を示すブロック図である。
FIG. 8 is a block diagram illustrating a configuration of a moving image editing system according to a second embodiment of the present invention.

【図9】第2実施形態における背景画像を表す図である。FIG. 9 is a diagram illustrating a background image according to the second embodiment.

【図10】第2実施形態における主オブジェクトの様子を
表す図である。
FIG. 10 is a diagram illustrating a state of a main object according to the second embodiment.

【図11】第2実施形態における影オブジェクトの様子を
表す図である。
FIG. 11 is a diagram illustrating a state of a shadow object according to the second embodiment.

【図12】第2実施形態における影符号化器の構成を示す
ブロック図である。
FIG. 12 is a block diagram illustrating a configuration of a shadow encoder according to the second embodiment.

【図13】第2実施形態における影オブジェクトのマスク
を表す図である。
FIG. 13 is a diagram illustrating a mask of a shadow object according to the second embodiment.

【図14】第2実施形態における動画像編集装置の構成を
示すブロック図である。
FIG. 14 is a block diagram illustrating a configuration of a moving image editing device according to a second embodiment.

【図15】第2実施形態における画像合成の結果を表す図
である。
FIG. 15 is a diagram illustrating a result of image composition in the second embodiment.

【図16】本発明に係る第3実施形態における動画像編集
システムの構成を示すブロック図である。
FIG. 16 is a block diagram illustrating a configuration of a moving image editing system according to a third embodiment of the present invention.

【図17】第3実施形態における動画像編集装置の構成を
示すブロック図である。
FIG. 17 is a block diagram illustrating a configuration of a moving image editing device according to a third embodiment.

【図18】第3実施形態における影オブジェクトの基本形
状を表す図である。
FIG. 18 is a diagram illustrating a basic shape of a shadow object according to the third embodiment.

【図19】第3実施形態における影オブジェクトの基本形
状の変形例を表す図である。
FIG. 19 is a diagram illustrating a modification of the basic shape of the shadow object according to the third embodiment.

【図20】第3実施形態における画像合成の結果を表す図
である。
FIG. 20 is a diagram illustrating a result of image composition in the third embodiment.

【図21】オブジェクトを含む動画像におけるフレーム画
像例を表す図である。
FIG. 21 is a diagram illustrating an example of a frame image in a moving image including an object.

【図22】オブジェクトを含まない背景画像例を表す図で
ある。
FIG. 22 is a diagram illustrating an example of a background image that does not include an object.

【図23】抽出されたオブジェクトを表す図である。FIG. 23 is a diagram illustrating extracted objects.

【図24】合成対象となる背景画像例を表す図である。FIG. 24 is a diagram illustrating an example of a background image to be combined.

【図25】従来の画像合成の結果を表す図である。FIG. 25 is a diagram illustrating a result of conventional image synthesis.

【図26】オブジェクトを含む動画像におけるフレーム画
像例を表す図である。
FIG. 26 is a diagram illustrating an example of a frame image in a moving image including an object.

【図27】抽出されたオブジェクトを表す図である。FIG. 27 is a diagram illustrating an extracted object.

【図28】従来の画像合成の結果を表す図である。FIG. 28 is a diagram illustrating a result of conventional image synthesis.

【図29】従来の画像合成の結果を表す図である。FIG. 29 is a diagram illustrating a result of conventional image synthesis.

【符号の説明】 101 CPU 102 端末 103,219 記憶装置 104 メモリ 105 画像メモリ 106 合成器 107,263 フレームメモリ 108 モニタ 109 バス 201,202 TVカメラ 203,303 オブジェクト抽出器 204 影抽出器 205 影符号化器 206 オブジェクト符号化器 207,216,234,237 符号化器 208,209,217 送信器 210,211 通信回線 212,213 受信器 214 編集指示装置 215,300 動画像編集装置 230,231,239,250,251,252,270 端子 232,301 マスク生成器 233,255,261 マスクメモリ 235 差分器 236 平均値算出器 238 合成器 253 分離器 254,260 マスク復号器 256 オブジェクト復号器 257 オブジェクトメモリ 258,262 復号器 259 ラッチ 264,265,266,267 変形器 268,302 影合成器 269 画像合成器[Description of Signs] 101 CPU 102 Terminal 103, 219 Storage 104 Memory 105 Image memory 106 Combiner 107, 263 Frame memory 108 Monitor 109 Bus 201, 202 TV camera 203, 303 Object extractor 204 Shadow extractor 205 Shadow coding Unit 206 object encoder 207, 216, 234, 237 encoder 208, 209, 217 transmitter 210, 211 communication line 212, 213 receiver 214 editing instruction unit 215, 300 video editing unit 230, 231, 239, 250, 251, 252, 270 Terminals 232, 301 Mask generator 233, 255, 261 Mask memory 235 Differentiator 236 Average calculator 238 Combiner 253 Separator 254, 260 Mask decoder 256 Object decoder 257 Object memory 258, 262 Decoder 259 Latch 264,265,266,267 Deformer 268,302 Shadow synthesizer 269 Image synthesizer

Claims (39)

【特許請求の範囲】[Claims] 【請求項1】 画像から少なくとも1つのオブジェクト
を抽出する抽出手段と、 前記抽出されたオブジェクトのうち、主たるオブジェク
トである主オブジェクトを設定する主オブジェクト設定
手段と、 前記抽出されたオブジェクトのうち、前記主オブジェク
トに付随する従オブジェクトを設定する従オブジェクト
設定手段と、 前記主オブジェクトに対して画像処理を施す主オブジェ
クト処理手段と、 前記従オブジェクトに対して前記主オブジェクト処理手
段における画像処理に準じた画像処理を施す従オブジェ
クト処理手段と、を備えることを特徴とする画像処理装
置。
An extracting unit configured to extract at least one object from an image; a main object setting unit configured to set a main object which is a main object among the extracted objects; A slave object setting means for setting a slave object attached to the master object; a main object processing means for performing image processing on the main object; and an image according to the image processing in the main object processing means for the slave object. An image processing apparatus comprising: a slave object processing unit that performs processing.
【請求項2】 更に、前記従オブジェクト処理手段にお
ける画像処理方法を指示する指示手段を有し、 前記従オブジェクト処理手段は、前記従オブジェクトに
対して前記主オブジェクト処理手段における画像処理
と、前記指示手段からの指示に応じた画像処理を施すこ
とを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, further comprising an instruction unit for instructing an image processing method in said sub-object processing unit, wherein said sub-object processing unit performs image processing in said main object processing unit on said sub-object, and said instruction. 2. The image processing apparatus according to claim 1, wherein the image processing is performed in accordance with an instruction from the means.
【請求項3】 前記主オブジェクト処理手段は、前記主
オブジェクトを他の画像に合成する主オブジェクト合成
手段を含み、 前記従オブジェクト処理手段は、前記従オブジェクトを
前記指示手段における指示に応じて前記他の画像に合成
する従オブジェクト合成手段を含むことを特徴とする請
求項2記載の画像処理装置。
3. The main object processing means includes main object synthesizing means for synthesizing the main object with another image, and the sub-object processing means is configured to generate the sub-object in response to an instruction from the instruction means. 3. The image processing apparatus according to claim 2, further comprising a slave object synthesizing unit for synthesizing the image with the image.
【請求項4】 前記指示手段は、前記従オブジェクトを
前記他の画像に合成するか否かを指示することを特徴と
する請求項3記載の画像処理装置。
4. The image processing apparatus according to claim 3, wherein the instructing unit instructs whether to compose the slave object with the another image.
【請求項5】 前記抽出手段は、予め取得された前記画
像の背景画像に基づいて、該画像からオブジェクトを抽
出することを特徴とする請求項1記載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the extracting unit extracts an object from the image based on a background image of the image acquired in advance.
【請求項6】 画像から少なくとも1つのオブジェクト
を抽出する抽出手段と、 前記抽出されたオブジェクトを主たるオブジェクトとそ
れに付随する従オブジェクトとに分類する分類手段と、 前記主オブジェクトを符号化する主オブジェクト符号化
手段と、 前記従オブジェクトを符号化する従オブジェクト符号化
手段と、を備えることを特徴とする画像処理装置。
6. An extraction unit for extracting at least one object from an image, a classification unit for classifying the extracted object into a main object and a subsidiary object attached thereto, and a main object code for encoding the main object An image processing apparatus comprising: an encoding unit; and a slave object encoding unit that encodes the slave object.
【請求項7】 前記主オブジェクト符号化手段は主オブ
ジェクトの画像を符号化し、 前記従オブジェクト符号化手段は、従オブジェクトの形
状を表す情報を符号化することを特徴とする請求項6記
載の画像処理装置。
7. The image according to claim 6, wherein said main object encoding means encodes an image of the main object, and said slave object encoding means encodes information representing a shape of the slave object. Processing equipment.
【請求項8】 前記従オブジェクト符号化手段は、更に
従オブジェクトの強度を示す情報を符号化することを特
徴とする請求項7記載の画像処理装置。
8. The image processing apparatus according to claim 7, wherein said slave object coding means further codes information indicating the strength of the slave object.
【請求項9】 更に、前記符号化された主オブジェクト
及び符号化された従オブジェクトを転送する転送手段を
有することを特徴とする請求項6記載の画像処理装置。
9. The image processing apparatus according to claim 6, further comprising a transfer unit that transfers the encoded main object and the encoded slave object.
【請求項10】 前記主オブジェクト符号化手段は、MP
EG-4符号化方式による符号化を行なうことを特徴とする
請求項6乃至10のいずれかに記載の画像処理装置。
10. The method according to claim 10, wherein the main object encoding means is an MP.
11. The image processing apparatus according to claim 6, wherein encoding is performed by an EG-4 encoding method.
【請求項11】 画像から少なくとも1つの主オブジェ
クトを抽出するオブジェクト抽出手段と、 前記主オブジェクトに付随する従オブジェクトを生成す
る従オブジェクト生成手段と、 前記主オブジェクトに対して画像処理を施す主オブジェ
クト処理手段と、 前記従オブジェクトに対して前記主オブジェクト処理手
段における画像処理に準じた画像処理を施す従オブジェ
クト処理手段と、を備えることを特徴とする画像処理装
置。
11. An object extracting means for extracting at least one main object from an image, a slave object generating means for generating a slave object attached to the main object, and a main object processing for performing image processing on the main object An image processing apparatus comprising: a slave object processing unit that performs image processing on the slave object according to image processing performed by the main object processing unit.
【請求項12】 更に、前記主オブジェクトを符号化す
る主オブジェクト符号化手段を有し、 前記従オブジェクト生成手段は、前記符号化された主オ
ブジェクトに基づいて従オブジェクトを生成することを
特徴とする請求項11記載の画像処理装置。
12. The apparatus according to claim 11, further comprising main object encoding means for encoding said main object, wherein said sub object generation means generates a sub object based on said encoded main object. The image processing apparatus according to claim 11.
【請求項13】 前記従オブジェクト生成手段は、前記
符号化された主オブジェクトの形状情報に基づいて従オ
ブジェクトの形状情報を生成することを特徴とする請求
項12記載の画像処理装置。
13. The image processing apparatus according to claim 12, wherein said slave object generating means generates shape information of a slave object based on the encoded shape information of the main object.
【請求項14】 前記主オブジェクト符号化手段は、MP
EG-4符号化方式による符号化を行なうことを特徴とする
請求項12または13に記載の画像処理装置。
14. The main object encoding means includes an MP
14. The image processing apparatus according to claim 12, wherein encoding is performed by an EG-4 encoding method.
【請求項15】 前記従オブジェクトは、前記主オブジ
ェクトの影を表すことを特徴とする請求項1乃至14の
いずれかに記載の画像処理装置。
15. The image processing apparatus according to claim 1, wherein the slave object represents a shadow of the master object.
【請求項16】 画像からオブジェクトを抽出して符号
化するオブジェクト符号化装置と、 背景画像を入力して符号化する背景符号化装置と、 前記オブジェクト符号化装置により符号化されたオブジ
ェクトと前記背景符号化装置により符号化された背景画
像を入力して復号し、合成する画像合成装置と、からな
る画像処理システムであって、 前記オブジェクト符号化装置は、 画像から少なくとも1つのオブジェクトを抽出する抽出
手段と、 前記抽出されたオブジェクトを主たるオブジェクトとそ
れに付随する従オブジェクトとに分類する分類手段と、 前記主オブジェクトを符号化する主オブジェクト符号化
手段と、 前記従オブジェクトを符号化する従オブジェクト符号化
手段と、を備えることを特徴とする画像処理システム。
16. An object encoding device for extracting and encoding an object from an image, a background encoding device for inputting and encoding a background image, an object encoded by the object encoding device, and the background An image processing system comprising: an image synthesizing device that inputs, decodes, and synthesizes a background image encoded by the encoding device, wherein the object encoding device extracts at least one object from the image. Means, a classifying means for classifying the extracted object into a main object and a subsidiary object attached thereto, a main object coding means for coding the main object, and a slave object coding for coding the slave object And an image processing system.
【請求項17】 前記主オブジェクト符号化手段は主オ
ブジェクトの画像を符号化し、 前記従オブジェクト符号化手段は、従オブジェクトの形
状を表す情報を符号化することを特徴とする請求項16
記載の画像処理システム。
17. The apparatus according to claim 16, wherein said main object coding means codes an image of the main object, and said slave object coding means codes information representing a shape of the slave object.
The image processing system described in the above.
【請求項18】 前記従オブジェクト符号化手段は、更
に従オブジェクトの強度を示す情報を符号化することを
特徴とする請求項17記載の画像処理システム。
18. The image processing system according to claim 17, wherein said slave object coding means further codes information indicating the strength of the slave object.
【請求項19】 前記オブジェクト符号化装置は更に、
符号化された主オブジェクト及び符号化された従オブジ
ェクトを送信するオブジェクト送信手段を有し、 前記背景符号化装置は符号化された背景画像を送信する
背景送信手段を有し、 前記画像合成装置は前記符号化された主オブジェクト及
び従オブジェクト、及び背景画像を受信する受信手段を
有することを特徴とする請求項16記載の画像処理シス
テム。
19. The object encoding device further comprises:
An object transmitting unit that transmits an encoded main object and an encoded sub-object; the background encoding device includes a background transmitting unit that transmits an encoded background image; 17. The image processing system according to claim 16, further comprising a receiving unit that receives the encoded main object, sub object, and background image.
【請求項20】 前記画像合成装置は、画像合成に関す
る指示を行なう指示手段と、 該指示に応じて画像合成を行なう画像合成手段と、を有
することを特徴とする請求項16記載の画像処理システ
ム。
20. The image processing system according to claim 16, wherein said image synthesizing device includes: an instructing unit that issues an instruction relating to image combining; and an image combining unit that performs image combining in accordance with the instruction. .
【請求項21】 前記指示手段は、前記主オブジェクト
及び従オブジェクトを合成する際の形状を指示すること
を特徴とする請求項20記載の画像処理システム。
21. The image processing system according to claim 20, wherein said instructing means instructs a shape at the time of synthesizing said master object and slave object.
【請求項22】 前記指示手段は、前記従オブジェクト
を合成する際の強度を指示することを特徴とする請求項
20記載の画像処理システム。
22. The image processing system according to claim 20, wherein said instructing means instructs an intensity at which said slave object is synthesized.
【請求項23】 前記画像合成装置は、合成した画像を
送信する合成画像送信手段を有することを特徴とする請
求項16記載の画像処理システム。
23. The image processing system according to claim 16, wherein said image synthesizing device has a synthesized image transmitting unit for transmitting a synthesized image.
【請求項24】 画像からオブジェクトを抽出して符号
化するオブジェクト符号化装置と、 背景画像を入力して符号化する背景符号化装置と、 前記オブジェクト符号化装置により符号化されたオブジ
ェクトと前記背景符号化装置により符号化された背景画
像を入力して復号し、合成する画像合成装置と、からな
る画像処理システムであって、 前記オブジェクト符号化装置は、 画像から少なくとも1つのオブジェクトを抽出する抽出
手段と、 前記抽出されたオブジェクトのうち、主たるオブジェク
トを符号化する主オブジェクト符号化手段と、を有し、 前記画像合成装置は、 前記符号化された主オブジェクトに基づいてその付随す
る従オブジェクトを生成する従オブジェクト生成手段
と、 前記符号化された主オブジェクトと前記生成された従オ
ブジェクトを前記背景画像と合成する画像合成手段と、
を有することを特徴とする画像処理システム。
24. An object encoding device for extracting and encoding an object from an image, a background encoding device for inputting and encoding a background image, an object encoded by the object encoding device and the background An image processing system comprising: an image synthesizing device that inputs, decodes, and synthesizes a background image encoded by an encoding device, wherein the object encoding device extracts at least one object from the image. Means, and a main object encoding means for encoding a main object among the extracted objects, wherein the image synthesizing apparatus, based on the encoded main object, Slave object generating means for generating, the encoded main object and the generated An image combining means for combining said background image object,
An image processing system comprising:
【請求項25】 前記従オブジェクト生成手段は、前記
符号化された主オブジェクトの形状情報に基づいて従オ
ブジェクトの形状情報を生成することを特徴とする請求
項24記載の画像処理システム。
25. The image processing system according to claim 24, wherein said slave object generating means generates shape information of the slave object based on the encoded shape information of the main object.
【請求項26】 前記オブジェクト符号化装置は、符号
化された主オブジェクトを送信するオブジェクト送信手
段を有し、 前記背景符号化装置は符号化された背景画像を送信する
背景送信手段を有し、 前記画像合成装置は前記符号化された主オブジェクト及
び背景画像を受信する受信手段を有することを特徴とす
る請求項24記載の画像処理システム。
26. The object encoding device, comprising: object transmitting means for transmitting an encoded main object; the background encoding device having background transmitting means for transmitting an encoded background image; 25. The image processing system according to claim 24, wherein the image synthesizing device has a receiving unit that receives the encoded main object and the background image.
【請求項27】 前記画像合成装置は、画像合成に関す
る指示を行なう指示手段を有し、 前記画像合成手段は、該指示に応じて画像合成を行なう
ことを特徴とする請求項24記載の画像処理システム。
27. The image processing apparatus according to claim 24, wherein the image synthesizing device has an instruction unit for giving an instruction regarding image synthesis, and the image synthesizing unit performs image synthesis in accordance with the instruction. system.
【請求項28】 前記指示手段は、前記主オブジェクト
及び従オブジェクトを合成する際の形状を指示すること
を特徴とする請求項27記載の画像処理システム。
28. The image processing system according to claim 27, wherein said instructing means instructs a shape at the time of synthesizing said master object and slave object.
【請求項29】 前記指示手段は、前記従オブジェクト
を合成する際の強度を指示することを特徴とする請求項
27記載の画像処理システム。
29. The image processing system according to claim 27, wherein said instructing means instructs an intensity at which said slave object is combined.
【請求項30】 前記画像合成装置は、合成した画像を
送信する合成画像送信手段を有することを特徴とする請
求項24記載の画像処理システム。
30. The image processing system according to claim 24, wherein the image synthesizing device has a synthesized image transmitting unit that transmits a synthesized image.
【請求項31】 前記主オブジェクト符号化手段は、MP
EG-4符号化方式による符号化を行なうことを特徴とする
請求項12または13に記載の画像処理装置。
31. The main object encoding means, comprising:
14. The image processing apparatus according to claim 12, wherein encoding is performed by an EG-4 encoding method.
【請求項32】 前記従オブジェクトは、前記主オブジ
ェクトの影を表すことを特徴とする請求項16乃至31
のいずれかに記載の画像処理システム。
32. The slave object according to claim 16, wherein the slave object represents a shadow of the master object.
The image processing system according to any one of the above.
【請求項33】 前記従オブジェクトは、前記主オブジ
ェクトの影を表すことを特徴とする請求項16乃至32
のいずれかに記載の画像処理システム。
33. The slave object according to claim 16, wherein the slave object represents a shadow of the master object.
The image processing system according to any one of the above.
【請求項34】 画像から少なくとも1つのオブジェク
トを抽出する抽出工程と、 前記抽出されたオブジェクトのうち、主たるオブジェク
トである主オブジェクトを設定する主オブジェクト設定
工程と、 前記抽出されたオブジェクトのうち、前記主オブジェク
トに付随する従オブジェクトを設定する従オブジェクト
設定工程と、 前記主オブジェクトに対して画像処理を施す主オブジェ
クト処理工程と、 前記従オブジェクトに対して前記主オブジェクト処理手
段における画像処理に準じた画像処理を施す従オブジェ
クト処理工程と、を備えることを特徴とする画像処理方
法。
34. An extracting step of extracting at least one object from an image; a main object setting step of setting a main object which is a main object among the extracted objects; A sub-object setting step of setting a sub-object attached to the main object; a main object processing step of performing image processing on the main object; And a slave object processing step of performing processing.
【請求項35】 画像から少なくとも1つのオブジェク
トを抽出する抽出工程と、 前記抽出されたオブジェクトを主たるオブジェクトとそ
れに付随する従オブジェクトとに分類する分類工程と、 前記主オブジェクトを符号化する主オブジェクト符号化
工程と、 前記従オブジェクトを符号化する従オブジェクト符号化
工程と、を備えることを特徴とする画像処理方法。
35. An extraction step of extracting at least one object from an image; a classification step of classifying the extracted object into a main object and a subsidiary object attached thereto; and a main object code for encoding the main object. An image processing method comprising: an encoding step; and a slave object encoding step of encoding the slave object.
【請求項36】 画像から少なくとも1つの主オブジェ
クトを抽出するオブジェクト抽出工程と、 前記主オブジェクトに付随する従オブジェクトを生成す
る従オブジェクト生成工程と、 前記主オブジェクトに対して画像処理を施す主オブジェ
クト処理工程と、 前記従オブジェクトに対して前記主オブジェクト処理手
段における画像処理に準じた画像処理を施す従オブジェ
クト処理工程と、を備えることを特徴とする画像処理方
法。
36. An object extraction step of extracting at least one main object from an image; a sub-object generation step of generating a sub-object attached to the main object; and a main object processing of performing image processing on the main object. An image processing method comprising: a sub-object processing step of performing image processing on the sub-object in accordance with image processing in the main object processing unit.
【請求項37】 画像処理のプログラムコードが格納さ
れた記録媒体であって、 画像から少なくとも1つのオブジェクトを抽出する抽出
工程のコードと、 前記抽出されたオブジェクトのうち、主たるオブジェク
トである主オブジェクトを設定する主オブジェクト設定
工程のコードと、 前記抽出されたオブジェクトのうち、前記主オブジェク
トに付随する従オブジェクトを設定する従オブジェクト
設定工程のコードと、 前記主オブジェクトに対して画像処理を施す主オブジェ
クト処理工程のコードと、 前記従オブジェクトに対して前記主オブジェクト処理手
段における画像処理に準じた画像処理を施す従オブジェ
クト処理工程のコードと、を備えることを特徴とする記
録媒体。
37. A recording medium in which a program code for image processing is stored, wherein: a code for an extraction step of extracting at least one object from an image; and a main object which is a main object among the extracted objects. Code for a main object setting step to be set; code for a sub object setting step for setting a sub object associated with the main object among the extracted objects; and main object processing for performing image processing on the main object A recording medium comprising: a code of a process; and a code of a sub-object processing step of performing image processing on the sub-object in accordance with image processing in the main object processing means.
【請求項38】 画像処理のプログラムコードが格納さ
れた記録媒体であって、 画像から少なくとも1つのオブジェクトを抽出する抽出
工程のコードと、 前記抽出されたオブジェクトを主たるオブジェクトとそ
れに付随する従オブジェクトとに分類する分類工程のコ
ードと、 前記主オブジェクトを符号化する主オブジェクト符号化
工程のコードと、 前記従オブジェクトを符号化する従オブジェクト符号化
工程のコードと、を備えることを特徴とする記録媒体。
38. A recording medium storing a program code for image processing, comprising: a code for an extraction step of extracting at least one object from an image; a main object and a subsidiary object attached to the extracted object; A recording medium comprising: a code of a classification step of classifying the sub object; a code of a main object encoding step of encoding the main object; and a code of a sub object encoding step of encoding the sub object. .
【請求項39】 画像処理のプログラムコードが格納さ
れた記録媒体であって、 画像から少なくとも1つの主オブジェクトを抽出するオ
ブジェクト抽出工程のコードと、 前記主オブジェクトに付随する従オブジェクトを生成す
る従オブジェクト生成工程のコードと、 前記主オブジェクトに対して画像処理を施す主オブジェ
クト処理工程のコードと、 前記従オブジェクトに対して前記主オブジェクト処理手
段における画像処理に準じた画像処理を施す従オブジェ
クト処理工程のコードと、を備えることを特徴とする記
録媒体。
39. A recording medium storing a program code for image processing, comprising: a code for an object extracting step of extracting at least one main object from an image; and a slave object for generating a slave object attached to the main object. A code of a generation step, a code of a main object processing step of performing image processing on the main object, and a sub-object processing step of performing image processing on the sub-object in accordance with image processing in the main object processing means. And a code.
JP16773098A 1998-06-01 1998-06-01 Image processing apparatus and method, and image processing system Expired - Fee Related JP3832971B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP16773098A JP3832971B2 (en) 1998-06-01 1998-06-01 Image processing apparatus and method, and image processing system
US09/323,254 US6625316B1 (en) 1998-06-01 1999-06-01 Image processing apparatus and method, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16773098A JP3832971B2 (en) 1998-06-01 1998-06-01 Image processing apparatus and method, and image processing system

Publications (2)

Publication Number Publication Date
JPH11346329A true JPH11346329A (en) 1999-12-14
JP3832971B2 JP3832971B2 (en) 2006-10-11

Family

ID=15855097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16773098A Expired - Fee Related JP3832971B2 (en) 1998-06-01 1998-06-01 Image processing apparatus and method, and image processing system

Country Status (1)

Country Link
JP (1) JP3832971B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006033178A1 (en) * 2004-09-22 2006-03-30 Polygon Magic, Inc. Image processing device, method, and program
JP2011059950A (en) * 2009-09-09 2011-03-24 Noritsu Koki Co Ltd Image synthesizer and image synthesis method
JP2015143997A (en) * 2015-02-24 2015-08-06 辰巳電子工業株式会社 Photographing game device, image processing method, and image processing program
WO2021071118A1 (en) * 2019-10-10 2021-04-15 주식회사 신세계아이앤씨 Foreground separation apparatus and method
CN114626468A (en) * 2022-03-17 2022-06-14 小米汽车科技有限公司 Method and device for generating shadow in image, electronic equipment and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006033178A1 (en) * 2004-09-22 2006-03-30 Polygon Magic, Inc. Image processing device, method, and program
JP2011059950A (en) * 2009-09-09 2011-03-24 Noritsu Koki Co Ltd Image synthesizer and image synthesis method
JP2015143997A (en) * 2015-02-24 2015-08-06 辰巳電子工業株式会社 Photographing game device, image processing method, and image processing program
WO2021071118A1 (en) * 2019-10-10 2021-04-15 주식회사 신세계아이앤씨 Foreground separation apparatus and method
KR20210042563A (en) * 2019-10-10 2021-04-20 주식회사 신세계아이앤씨 Apparatus and method for separating foreground from background
CN114626468A (en) * 2022-03-17 2022-06-14 小米汽车科技有限公司 Method and device for generating shadow in image, electronic equipment and storage medium
CN114626468B (en) * 2022-03-17 2024-02-09 小米汽车科技有限公司 Method, device, electronic equipment and storage medium for generating shadow in image

Also Published As

Publication number Publication date
JP3832971B2 (en) 2006-10-11

Similar Documents

Publication Publication Date Title
US6625316B1 (en) Image processing apparatus and method, and image processing system
US8798168B2 (en) Video telecommunication system for synthesizing a separated object with a new background picture
US9014462B2 (en) Depth information generating device, depth information generating method, and stereo image converter
JP4698831B2 (en) Image conversion and coding technology
JP2001507541A (en) Sprite-based video coding system
KR20040054416A (en) Method for processing still video image
JP2000513174A (en) A method for real-time digital modification of a video data stream by removing a part of an original image and replacing elements to create a new image.
JP4523193B2 (en) Extended color gamut digital image processing method and computer storage product
KR101881295B1 (en) Video system based on layer mixer using augmented reality
JPWO2008126371A1 (en) Video composition method, video composition system
JP2005020607A (en) Composite image output device and composite image output processing program
JP4618803B2 (en) File setting system for image processing
JP2002232783A (en) Image processor, method therefor and record medium for program
JP3832971B2 (en) Image processing apparatus and method, and image processing system
JPH07131718A (en) Picture synthesizer
CN113315925A (en) Data processing method, device, shooting system and computer storage medium
KR101143408B1 (en) System for Providing Service of Compositing Imageor Video
JPH10210340A (en) Image-pickup device and image compositing device
JP2005117399A (en) Image processor
JPH0564172A (en) Video communication system and video transmitter and video receiver
JP2001320730A (en) Image composing device
JP4743922B2 (en) Parameter setting system, imaging apparatus, control method thereof, control program, and computer-readable storage medium
JP3551908B2 (en) Method and apparatus for separating background sprite and foreground object
JPH09224259A (en) Image synthesizer
JPH08149458A (en) Moving image processor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060407

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060718

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090728

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100728

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100728

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110728

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120728

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120728

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130728

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees