JP2000148130A - Sprite formation method and device and recording medium recording the method - Google Patents

Sprite formation method and device and recording medium recording the method

Info

Publication number
JP2000148130A
JP2000148130A JP10314236A JP31423698A JP2000148130A JP 2000148130 A JP2000148130 A JP 2000148130A JP 10314236 A JP10314236 A JP 10314236A JP 31423698 A JP31423698 A JP 31423698A JP 2000148130 A JP2000148130 A JP 2000148130A
Authority
JP
Japan
Prior art keywords
reference frame
frame
frames
pixel
predicted image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10314236A
Other languages
Japanese (ja)
Inventor
Hisami Shinsenji
久美 秦泉寺
Yutaka Watanabe
裕 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP10314236A priority Critical patent/JP2000148130A/en
Publication of JP2000148130A publication Critical patent/JP2000148130A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method and a device capable of forming a sprite having fewer blurrs. SOLUTION: A motion parameter extraction means 2 extracts a global motion parameter from a dynamic image including camera operations, such as panning, zooming or the like, from a dynamic image input means 1, and a reference frame determination means 3 determines a reference frame at the time of sprite formation in the dynamic image. Then, a predictive image formation means 4 forms a predictive image by influencing the global motion parameter on a frame other than the reference frame. Then, a sampling point pixel value calculation means 5 calculates the pixel value of a sampling point by using pixel values of other plural frames distributing on the sampling position of pixels of the reference frame or on its periphery in the state where a sampling point interval is different from the reference frame. Finally, a positioning means 6 arranges the image of a frame including other plural predictive images relative to a background of the reference frame by using the pixel value of the calculated sampling point, so that patterns are connected continuously, to thereby form the sprite.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動画像からスプラ
イトを生成する技術に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for generating a sprite from a moving image.

【0002】[0002]

【従来の技術】図7に一般的なスプライトの概念図を示
す。基準となるフレームの座標系に全てのフレームを位
置合わせして一枚の画像に貼り付けたものがスプライト
である。
2. Description of the Related Art FIG. 7 is a conceptual diagram of a general sprite. A sprite is obtained by aligning all the frames in the coordinate system of the reference frame and pasting them to one image.

【0003】図8にスプライトにおける位置合わせの概
念を示す。図9(A)が各フレームを位置合わせした状
態をx−y平面方向から見たもので、図9(B)がこの
状態をt−x平面方向から見たものである。これをスプ
ライトとして一枚の平面にするには、ある座標(x,
y)において時間t方向に重なった画素の平均値やメデ
ィアン値(中央値)を用いて、その座標の値とする。
FIG. 8 shows the concept of positioning in a sprite. FIG. 9A shows a state in which the respective frames are aligned as viewed from the xy plane direction, and FIG. 9B shows this state as viewed from the tx plane direction. To convert this into a single plane as a sprite, the coordinates (x,
In y), the average value or the median value (median value) of the pixels overlapping in the time t direction is used as the value of the coordinates.

【0004】図9に従来技術における位置合わせ時の画
素の補完法を示す。任意の着目フレームにおいて、基準
フレームの座標に位置合わせする時に、着目フレームの
画素は一般的に図10のように基準フレームの格子点上
には無い。そこで、基準フレームの着目画素ipを取り
囲む着目フレームの4つの画素i1−i4が選択され、
この4つの値を用いて着目画素ipの値が推定される。
一般的には線形補完が用いられ、以下の式(1)を用い
てipの値が算出される。
FIG. 9 shows a method of complementing pixels at the time of alignment in the prior art. When an arbitrary frame of interest is aligned with the coordinates of the reference frame, the pixels of the frame of interest are generally not on the grid points of the reference frame as shown in FIG. Therefore, four pixels i1-i4 of the frame of interest surrounding the pixel of interest ip of the reference frame are selected,
The value of the pixel of interest ip is estimated using these four values.
Generally, linear interpolation is used, and the value of ip is calculated using the following equation (1).

【0005】 ip=i1×(1−a)×b+i2×a×b+i3×(1−a)×(1−b) +i4×(1−b)×a …(1) 以上のように、従来の動画像からのスプライト生成方法
では、動画像中に基準となるフレームを決定し、得られ
たグローバル動きパラメータを基準フレーム以外のフレ
ームに作用させて予測画像を生成すると同時に、予測画
像の画素の標本位置を基準画像の標本位置に一致するよ
うに内挿補間を行い、これらの補間画像を用いてスプラ
イトが生成されていた。すなわち、従来手法では基準フ
レームの中の、ある画素位置に対するスプライトの画素
の候補となる点は基準フレーム以外のどれか一つのフレ
ームから選ばれる。具体的には、時間方向に位置合わせ
した時の複数フレームのメディアン(中央)値もしくは
平均値が用いられる。このとき、基準フレーム以外のフ
レームは、すでに補間処理によって、基準フレームの標
本間隔に一致するように画素値が計算されていた。
[0005] ip = i1 × (1-a) × b + i2 × a × b + i3 × (1-a) × (1-b) + i4 × (1-b) × a (1) As described above, In the sprite generation method from a moving image, a reference frame is determined in the moving image, and the obtained global motion parameters are applied to frames other than the reference frame to generate a predicted image. The interpolation is performed so that the position matches the sample position of the reference image, and a sprite is generated using these interpolated images. That is, in the conventional method, a candidate point of a sprite pixel for a certain pixel position in the reference frame is selected from any one frame other than the reference frame. Specifically, a median (center) value or an average value of a plurality of frames at the time of alignment in the time direction is used. At this time, for the frames other than the reference frame, the pixel values have already been calculated by interpolation processing so as to match the sample interval of the reference frame.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、従来の
スプライト生成方法では、すでに補間されたフレームの
画素を用いてスプライトが生成され、補間処理には周囲
の4点の画素からの内挿補間が用いられ、この周囲4点
の画素からの内挿補間が低域通過型フィルタに相当し、
しかも標本間隔以下の精度での補間は不可能なため、ス
プライトとして生成された画像がぼけるという欠点があ
った。つまり、式(1)で算出されるipはサンプリン
グ定理を満たしているわけではないので、低域フィルタ
を通過したのと同じ影響があるため、求められる予測画
像はぼけたものとなる。
However, in the conventional sprite generation method, a sprite is generated using pixels of a frame already interpolated, and interpolation is performed by interpolation from four surrounding pixels. The interpolation from the four surrounding pixels corresponds to a low-pass filter.
Moreover, since interpolation with an accuracy smaller than the sample interval is impossible, there is a disadvantage that an image generated as a sprite is blurred. That is, since the ip calculated by Expression (1) does not satisfy the sampling theorem, it has the same effect as passing through the low-pass filter, and thus the obtained predicted image is blurred.

【0007】また、選択される画素が時間方向に位置合
わせされた画素の平均値を用いる場合、もしくはランダ
ムに選択された場合は背景以外の物体の影響を受けると
いう問題があった(メディアン値は背景が時間方向の全
画素の半数以上を占める場合はこの問題を回避可能であ
る)。
There is also a problem that when a selected pixel uses an average value of pixels aligned in the time direction, or when the pixel is selected at random, it is affected by an object other than the background (the median value is This problem can be avoided if the background occupies more than half of all pixels in the time direction).

【0008】本発明の課題は、ぼけが少ないスプライト
を、さらには動領域を排除したスプライトを生成できる
方法及び装置を提供することにある。
An object of the present invention is to provide a method and an apparatus capable of generating a sprite with little blur and a sprite excluding a moving area.

【0009】[0009]

【課題を解決するための手段】本発明は、以下に列記す
る発明により上記の課題を解決する。
The present invention solves the above-mentioned problems by the inventions listed below.

【0010】本発明1に係る方法は、パン・ズームなど
のカメラ操作を含んだ動画像からフレーム間のグローバ
ル動きパラメータを抽出する段階と、該動画像中に基準
フレームを決定する段階と、該抽出されたグローバル動
きパラメータを該基準フレーム以外のフレームに作用さ
せて予測画像を生成する段階と、該基準フレームの画素
の標本位置あるいはその周囲に標本点間隔が該基準フレ
ームとは異なった状態で分布する該予測画像を含む(以
下、予測画像だけであってもよい)他の複数のフレーム
の画素値を用いて標本点の画素値を計算する段階と、該
計算した標本点の画素値を用いて該基準フレームの背景
に対して該予測画像含む他の複数のフレームの画像を、
絵柄が連続して接続されるように配置する段階とを、有
することを特徴とするスプライト生成方法である。
The method according to the first aspect of the present invention includes the steps of extracting global motion parameters between frames from a moving image including a camera operation such as panning and zooming, determining a reference frame in the moving image, Generating a predicted image by applying the extracted global motion parameters to a frame other than the reference frame, and generating a predicted image at a sample position of a pixel of the reference frame or at a periphery thereof at a sample point interval different from that of the reference frame. Calculating a pixel value of a sample point using pixel values of a plurality of other frames including the predicted image distributed (hereinafter, may be only the predicted image); Using a plurality of other frame images including the predicted image against the background of the reference frame,
Arranging pictures so as to be connected continuously.

【0011】本発明2に係る方法は、パン・ズームなど
のカメラ操作を含んだ動画像からフレーム間のグローバ
ル動きパラメータを抽出する段階と、該動画像中に基準
フレームを決定する段階と、該抽出されたグローバル動
きパラメータを該基準フレーム以外のフレームに作用さ
せて予測画像を生成する段階と、該基準フレームの座標
の時間方向に存在する該予測画像を含む他の複数のフレ
ームの標本値のメディアン(中央)値を算出し、該メデ
ィアン値を与えるフレームおよびその周辺の複数のフレ
ームにて該基準フレームの画素の標本位置である格子座
標あるいは該格子座標の近傍にあり格子座標に近い位置
の周囲に標本点間隔が該基準フレームとは異なった状態
で分布する該予測画像を含む他の複数のフレームの画素
値を用いて標本点の画素値を計算する段階と、該計算し
た標本点の画素値を用いて該基準フレームの背景に対し
て該予測画像を含む他の複数のフレームの画像を、絵柄
が連続して接続させるように配置する段階とを、有する
ことを特徴とするスプライト生成方法である。
A method according to a second aspect of the present invention includes the steps of extracting global motion parameters between frames from a moving image including a camera operation such as panning and zooming, determining a reference frame in the moving image, Generating a predicted image by applying the extracted global motion parameter to a frame other than the reference frame; and calculating sample values of a plurality of other frames including the predicted image existing in the time direction of the coordinates of the reference frame. A median (center) value is calculated, and a frame at which the median value is to be given and a plurality of frames around the frame are grid coordinates that are sample positions of pixels of the reference frame or positions near the grid coordinates and close to the grid coordinates. Sampling points are determined by using pixel values of a plurality of other frames including the predicted image around which sampling point intervals are distributed in a state different from the reference frame. Calculating the pixel value, and using the calculated pixel value of the sample point, images of a plurality of other frames including the predicted image with respect to the background of the reference frame, so that the pattern is continuously connected. And arranging the sprites.

【0012】本発明1に係る装置は、パン・ズームなど
のカメラ操作を含んだ動画像からフレーム間のグローバ
ル動きパラメータを抽出するグローバル動きパラメータ
抽出手段と、該動画像中に基準フレームを決定する基準
フレーム決定手段と、該抽出されたグローバル動きパラ
メータを該基準フレーム以外のフレームに作用させて予
測画像を生成する予測画像生成手段と、該基準フレーム
の画素の標本位置あるいはその周囲に標本点間隔が該基
準フレームとは異なった状態で分布する該予測画像を含
む他の複数のフレームの画素値を用いて標本点の画素値
を計算する標本点画素値計算手段と、該計算した標本点
の画素値を用いて該基準フレームの背景に対して該予測
画像を含む他の複数のフレームの画像を、絵柄が連続し
て接続されるように配置する位置合わせ手段とを、具備
することを特徴とするスプライト生成装置である。
The apparatus according to the first aspect of the present invention includes a global motion parameter extracting means for extracting global motion parameters between frames from a moving image including a camera operation such as panning and zooming, and determining a reference frame in the moving image. Reference frame determination means, predicted image generation means for generating a predicted image by applying the extracted global motion parameters to frames other than the reference frame, and sample point intervals at or around sample positions of pixels of the reference frame Sample point pixel value calculation means for calculating pixel values of sample points using pixel values of a plurality of other frames including the predicted image distributed in a state different from the reference frame; and Using the pixel values, the image of the plurality of other frames including the predicted image is connected to the background of the reference frame so that the pattern is continuously connected. And positioning means for positioning a sprite generating apparatus characterized by comprising.

【0013】本発明2に係る装置は、パン・ズームなど
のカメラ操作を含んだ動画像からフレーム間のグローバ
ル動きパラメータを抽出するグローバル動きパラメータ
抽出手段と、該動画像中に基準フレームを決定する基準
フレーム決定手段と、該抽出されたグローバル動きパラ
メータを該基準フレーム以外のフレームに作用させて予
測画像を生成する予測画像生成手段と、該基準フレーム
の座標の時間方向に存在する該予測画像を含む他の複数
のフレームの標本値のメディアン(中央)値を算出し、
該メディアン値を与えるフレームおよびその周辺の複数
のフレームにて該基準フレームの画素の標本位置である
格子座標あるいは該格子座標の近傍にあり格子座標に近
い位置の周囲に標本点間隔が該基準フレームとは異なっ
た状態で分布する該予測画像を含む他の複数のフレーム
の画素値を用いて標本点の画素値を計算する標本点画素
値計算手段と、該計算した標本点の画素値を用いて該基
準フレームの背景に対して該予測画像を含む他の複数の
フレームの画像を、絵柄が連続して接続させるように配
置する位置合わせ手段とを、具備することを特徴とする
スプライト生成装置である。
The apparatus according to the second aspect of the present invention includes a global motion parameter extracting means for extracting global motion parameters between frames from a moving image including a camera operation such as panning and zooming, and determining a reference frame in the moving image. Reference frame determining means, predicted image generating means for generating the predicted image by applying the extracted global motion parameter to a frame other than the reference frame, and calculating the predicted image existing in the time direction of the coordinates of the reference frame. Calculate the median (median) value of the sample values of multiple other frames,
In the frame giving the median value and a plurality of frames around the frame, the sampling point interval is set around the grid coordinate which is the sampling position of the pixel of the reference frame or around the position close to the grid coordinate and close to the grid coordinate. A sample point pixel value calculating means for calculating a pixel value of a sample point using pixel values of a plurality of other frames including the predicted image distributed in a state different from the above, and using the pixel value of the calculated sample point. And a positioning means for arranging images of a plurality of other frames including the predicted image with respect to the background of the reference frame so that pictures are continuously connected. It is.

【0014】本発明1または2に係るスプライト生成方
法における段階は、コンピュータで実行することが可能
であり、そのためのプログラムを、該コンピュータが読
み取り可能な記録媒体に記録して、スプライト生成方法
を記録した記録媒体とすることが可能である。
The steps in the sprite generation method according to the first or second aspect of the present invention can be executed by a computer, and a program for that is recorded on a computer-readable recording medium, and the sprite generation method is recorded. It is possible to use the recording medium.

【0015】本発明1では、基準フレームの背景に対し
て他のフレームの画像を絵柄が連続して接続するように
配置させる際に、基準フレームの画素の標本位置あるい
はその周囲に標本点間隔が基準フレームとは異なった状
態で分布する他の複数のフレームの画素値を用いて標本
点の画素値を計算する。すなわち、本発明では基準フレ
ームの中の、ある画素位置に対するスプライトの画素の
候補となる点は基準フレーム以外に複数のフレームから
選ばれる。このとき、基準フレーム以外のフレームの画
素は、補間処理されていない。そのため、基準フレーム
の標本間隔でみれば、それらの標本間隔の間に分布する
ことになる。基準フレームのある画素位置に対応するス
プライトの画素の値を決定するために、この画素の周囲
に分布する複数のフレームからの画素を用いて、距離に
応じて内挿補間を行う。
According to the first aspect of the present invention, when an image of another frame is arranged so that a picture is continuously connected to the background of the reference frame, the sample point interval of the pixel of the reference frame or the surroundings thereof is different from that of the reference frame. The pixel value of the sample point is calculated using the pixel values of a plurality of other frames distributed in a state different from the reference frame. That is, in the present invention, a point serving as a sprite pixel candidate for a certain pixel position in the reference frame is selected from a plurality of frames other than the reference frame. At this time, pixels in frames other than the reference frame have not been subjected to the interpolation processing. Therefore, when viewed from the sample intervals of the reference frame, distribution occurs between those sample intervals. In order to determine the value of the pixel of the sprite corresponding to a certain pixel position in the reference frame, interpolation from the plurality of frames distributed around this pixel is performed according to the distance.

【0016】これらの手法は、ハードウェアあるいはコ
ンピュータ上で稼働するプログラムで実現される。
These methods are implemented by hardware or a program running on a computer.

【0017】本発明1では、基準フレームのある画素位
置に対応するスプライトの画素の値を決定するために、
この画素の周囲に分布する複数のフレームからの画素を
用いて、距離に応じて内挿補間を行うことにより、基準
フレームの標本間隔より近い位置にある画素を用いてス
プライトの画素を計算することができる。
According to the first aspect of the present invention, in order to determine the value of the pixel of the sprite corresponding to a certain pixel position of the reference frame,
By using pixels from a plurality of frames distributed around this pixel and performing interpolation according to the distance, calculating the pixels of the sprite using the pixels closer to the sample interval of the reference frame Can be.

【0018】本発明2では、時間方向にメディアン値を
取る場合の動物体が除去されるという特性を考慮し、基
準フレームの格子座標において、この座標に位置合わせ
された複数フレームから時間方向にメディアン値を計算
する。このメディアン値を与えるフレーム周辺のN個の
補間されていないフレームからスプライト画素を高精度
に計算するための候補点を選び、選びだされた点を補間
してスプライトの値とする。この補間の方法は以下の手
法をとる。
In the present invention 2, in consideration of the characteristic that the moving object is removed when the median value is taken in the time direction, the median is set in the time direction from a plurality of frames aligned with the coordinates in the grid coordinates of the reference frame. Calculate the value. From the N non-interpolated frames around the frame giving the median value, candidate points for calculating sprite pixels with high accuracy are selected, and the selected points are interpolated to obtain sprite values. This interpolation method employs the following method.

【0019】基準フレームの背景に対して他のフレーム
の画像を絵柄が連続して接続するように配置させる際
に、計算したメディアン値を与えるフレームおよびその
周辺の複数のフレームにて、基準フレームの画素の標本
位置あるいはその外側の位置の周囲に標本点間隔が基準
フレームとは異なった状態で分布する他の複数のフレー
ムの画素値を用いて標本点の画素値を計算する。すなわ
ち、本発明では基準フレームの中の、ある画素位置に対
するスプライトの画素の候補となる点は基準フレーム以
外に複数のフレームから選ばれる。このとき、基準フレ
ーム以外のフレームの画素は、補間処理されていない。
そのため、基準フレームの標本間隔でみれば、それらの
標本間隔の間に分布することになる。基準フレームのあ
る画素位置に対応するスプライトの画素の値を決定する
ために、この画素の周囲に分布する複数のフレームから
の画素を用いて、距離に応じて内挿補間を行う。
When an image of another frame is arranged so that the picture is connected continuously to the background of the reference frame, the frame giving the calculated median value and a plurality of frames around the frame give the calculated frame value. The pixel value of the sample point is calculated using the pixel values of a plurality of other frames in which the sample point interval is distributed around the pixel sample position or a position outside the pixel in a state different from the reference frame. That is, in the present invention, a point serving as a sprite pixel candidate for a certain pixel position in the reference frame is selected from a plurality of frames other than the reference frame. At this time, pixels in frames other than the reference frame have not been subjected to the interpolation processing.
Therefore, when viewed from the sample intervals of the reference frame, distribution occurs between those sample intervals. In order to determine the value of the pixel of the sprite corresponding to a certain pixel position in the reference frame, interpolation from the plurality of frames distributed around this pixel is performed according to the distance.

【0020】これらの手法は、ハードウェアあるいはコ
ンピュータ上で稼働するプログラムで実現される。
These methods are realized by hardware or a program running on a computer.

【0021】本発明2では、基準フレームのある画素位
置に対応するスプライトの画素の値を決定するために、
この画素の周囲に分布する複数のフレームからの画素を
用いて、距離に応じて内挿補間を行うことにより、基準
フレームの標本間隔より近い位置にある画素を用いてス
プライトの画素を計算することができる。また、最初に
メディアン値を与えるフレーム周辺のフレームのみで補
間するための画素の候補を選択できるため、動領域を排
除したスプライトを生成することができる。
In the present invention 2, in order to determine the value of the pixel of the sprite corresponding to a certain pixel position of the reference frame,
By using pixels from a plurality of frames distributed around this pixel and performing interpolation according to the distance, calculating the pixels of the sprite using the pixels closer to the sample interval of the reference frame Can be. Further, since it is possible to select a pixel candidate for interpolation only in a frame around a frame to which a median value is initially given, a sprite excluding a moving region can be generated.

【0022】[0022]

【発明の実施の形態】以下、本発明の実施の形態につい
て図を用いて詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0023】図1に本発明に係る装置の一実施形態例の
構成を示す。1は、動画像入力手段、2は動きパラメー
タ抽出手段、3は基準フレーム決定手段、4は予測画像
フレーム生成手段、5は標本点画素値計算手段、6は位
置合わせ手段である。
FIG. 1 shows the configuration of an embodiment of the apparatus according to the present invention. 1 is a moving image input unit, 2 is a motion parameter extracting unit, 3 is a reference frame determining unit, 4 is a predicted image frame generating unit, 5 is a sample point pixel value calculating unit, and 6 is a positioning unit.

【0024】図2に本発明1の一実施形態例による図1
の装置の動作例とともに、本発明1の方法の一実施形態
例のフローチャートを示す。以下、図1、図2により、
本実施形態例における上記の動作例とスプライト生成方
法を説明する。
FIG. 2 shows one embodiment of the present invention 1 in FIG.
2 shows a flowchart of an embodiment of the method of the present invention 1 together with an operation example of the apparatus of the present invention. Hereinafter, according to FIGS. 1 and 2,
The above operation example and the sprite generation method in this embodiment will be described.

【0025】まず、動画像入力手段1からパン・ズーム
などのカメラ操作を含んだ動画像を入力する。動きパラ
メータ抽出手段2は、入力された動画像からグローバル
動きパラメータを抽出し、基準フレーム決定手段3は、
入力された動画像中にスプライト生成時の基準となる基
準フレームを決定する。
First, a moving image including a camera operation such as pan / zoom is input from the moving image input means 1. The motion parameter extracting means 2 extracts a global motion parameter from the input moving image, and the reference frame determining means 3
A reference frame serving as a reference when generating sprites is determined in the input moving image.

【0026】次に、予測画像生成手段4は、グローバル
動きパラメータを基準フレーム以外のフレームに作用さ
せて予測画像を生成する。
Next, the predicted image generating means 4 generates a predicted image by applying the global motion parameter to a frame other than the reference frame.

【0027】次に、標本点画素値計算手段5において、
基準フレームの画素の標本位置あるいはその周囲に標本
点間隔が基準フレームとは異なった状態で分布する他の
複数のフレームの画素値を用いて標本点の画素値を計算
する。
Next, in the sample point pixel value calculating means 5,
The pixel value of the sample point is calculated using the pixel values of a plurality of other frames in which the sample point interval is distributed at or around the sample position of the pixel of the reference frame in a state different from the reference frame.

【0028】最後に、位置合わせ手段6において、上記
で計算した標本点の画素値を用いて基準フレームの背景
に対して他の複数の予測画像を含むフレームの画像を、
絵柄が連続して接続されるように配置して、ぼけの少な
いスプライトを生成する。
Finally, the image of a frame including a plurality of other predicted images with respect to the background of the reference frame is obtained by the positioning means 6 using the pixel values of the sample points calculated above.
The sprites are arranged so that the pictures are continuously connected to generate a sprite with little blur.

【0029】図3に本実施形態例によるスプライト生成
の際の位置合わせ時の画素の補完法の説明図を示す。
FIG. 3 is an explanatory diagram of a pixel complementing method at the time of position alignment at the time of sprite generation according to this embodiment.

【0030】図3(A)は基準フレームの座標系にマッ
プされた複数フレームの画素の様子を示す。本実施形態
例では着目画素ipを囲む最短距離を与える4つの画素
が選択される。図3(B)に従来技術における、着目画
素の推定に用いる4つの画素の配置を、図3(C)に本
実施形態例の同4画素の配置を示す。従来技術では補間
に用いる画素が大きく離れているのに対し、本実施形態
例では、従来技術よりも短い距離にある画素から着目画
素ipが推定される。ipの値は、標本点画素値計算手
段4において、4つの画素の輝度値i1−i4と、4つ
の画素と着目画素との距離d1−d4を用いて、以下の
式(2)の様に計算される。
FIG. 3A shows the state of pixels of a plurality of frames mapped to the coordinate system of the reference frame. In the present embodiment, four pixels that provide the shortest distance surrounding the target pixel ip are selected. FIG. 3B shows an arrangement of four pixels used for estimating a pixel of interest in the related art, and FIG. 3C shows an arrangement of the same four pixels in this embodiment. In the prior art, the pixels used for interpolation are far apart, whereas in the present embodiment, the pixel of interest ip is estimated from pixels at a shorter distance than in the prior art. The value of ip is calculated by the sample point pixel value calculation means 4 using the luminance values i1-i4 of the four pixels and the distances d1-d4 between the four pixels and the pixel of interest, as in the following equation (2). Is calculated.

【0031】 ip=k×(i1/d1+i2/d2+i3/d3+i4/d4) ∵k=(d1×d2×d3×d4)/(d2×d3×d4+d1×d3×d4 +d1×d2×d4+d1×d2×d3) …(2) 次に、本発明2に係る一実施形態例を示す。その構成
は、図1と同様であるが、位置合わせ時の画素の補間方
法、すなわち標本点画素値計算手段5における標本点の
画素値の計算の仕方が本発明1の実施形態例と相違す
る。
Ip = k × (i1 / d1 + i2 / d2 + i3 / d3 + i4 / d4) ∵k = (d1 × d2 × d3 × d4) / (d2 × d3 × d4 + d1 × d3 × d4 + d1 × d2 × d4 + d1 × d2 × d3 Next, an embodiment of the present invention 2 will be described. The configuration is the same as that of FIG. 1, but the method of interpolating pixels at the time of alignment, that is, the method of calculating the pixel value of the sample point by the sample point pixel value calculation means 5 is different from that of the first embodiment of the present invention. .

【0032】図4に本実施形態例の動作例とともに、本
発明2の方法の一実施形態例のフローチャートを示す。
以下、図1、図4により、本実施形態例による装置の動
作例と、スプライト生成方法を説明する。
FIG. 4 shows a flowchart of an embodiment of the method of the present invention 2 together with an operation example of this embodiment.
Hereinafter, an operation example of the apparatus according to the present embodiment and a sprite generation method will be described with reference to FIGS.

【0033】まず、動画像入力手段1からパン・ズーム
などのカメラ操作を含んだ動画像を入力する。動きパラ
メータ抽出手段2は、入力された動画像からグローバル
動きパラメータを抽出し、基準フレーム決定手段3は、
入力された動画像中にスプライト生成時の基準となる基
準フレームを決定する。
First, a moving image including camera operations such as panning and zooming is input from the moving image input means 1. The motion parameter extracting means 2 extracts a global motion parameter from the input moving image, and the reference frame determining means 3
A reference frame serving as a reference when generating sprites is determined in the input moving image.

【0034】次に、予測画像生成手段4は、グローバル
動きパラメータを基準フレーム以外のフレームに作用さ
せて予測画像を生成する。
Next, the predicted image generating means 4 generates a predicted image by applying the global motion parameter to a frame other than the reference frame.

【0035】次に、標本点画素値計算手段5において、
基準フレームの座標の時間方向に存在する他の複数のフ
レームの標本値のメディアン(中央)値を算出し、この
メディアン値を与えるフレームおよびその周辺の複数の
フレームを探索する。そしてこのメディアン値を与える
フレームおよびその周辺の複数のフレームにて基準フレ
ームの画素の標本座標である格子座標あるいは格子座標
の近傍にあり格子座標に近い位置の周囲に標本点間隔が
基準フレームとは異なった状態で分布する他の複数の予
測画像フレームの画素値を用いて標本点の画素値を計算
する。
Next, in the sample point pixel value calculating means 5,
A median (center) value of sample values of a plurality of other frames existing in the time direction of the coordinates of the reference frame is calculated, and a frame giving the median value and a plurality of frames around the frame are searched. Then, in the frame giving the median value and a plurality of frames around it, the sample coordinates of the pixels of the reference frame are grid coordinates, or the sample point interval around the position near the grid coordinates and close to the grid coordinates is the reference frame. The pixel values of the sample points are calculated using the pixel values of other plural prediction image frames distributed in different states.

【0036】最後に、位置合わせ手段6において、上記
で計算した標本点の画素値を用いて基準フレームの背景
に対して他の複数の予測画像を含むフレームの画像を、
絵柄が連続して接続されるように配置して、ぼけが少な
く、動領域が排除されたスプライトを生成する。
Finally, the image of a frame including a plurality of other predicted images with respect to the background of the reference frame is obtained by the positioning means 6 using the pixel values of the sample points calculated above.
The sprites are arranged so that the pictures are continuously connected to generate a sprite with little blur and no moving area.

【0037】図5に本発明におけるメディアンフレーム
(メディアン値を与えるフレームの)およびその周辺フ
レームの探索法を示す。各フレームから基準フレームの
格子座標に相当する画素を従来方法の線形補間法を用い
て求め、基準座標p(x,y)において、時間t方向に
探索してメディアン値を算出する。同時にこの座標
(x,y)のメディアン値を与えるフレーム番号n
(x,y)を格納する。同様の処理を全ての座標で行
う。次に、各座標において、n(x,y)周辺のNフレ
ームにおいて、画素の補間を行う。
FIG. 5 shows a method for searching for a median frame (of a frame providing a median value) and its surrounding frames in the present invention. A pixel corresponding to the grid coordinate of the reference frame is obtained from each frame using a conventional linear interpolation method, and a median value is calculated by searching in the time t direction at the reference coordinate p (x, y). At the same time, a frame number n giving a median value of the coordinates (x, y)
(X, y) is stored. A similar process is performed for all coordinates. Next, at each coordinate, pixel interpolation is performed in N frames around n (x, y).

【0038】図6に本発明における位置合わせ時の画素
の補間法を示す。図6(A)は基準フレームの座標系に
マップされた複数フレームの画素の様子を示す。本実施
形態例では着目画素ipを囲む4つの象限に属する最短
距離を与える4つの画素が選択される。図6(B)に従
来技術における、着目画素の推定に用いる4つの画素の
配置を、図6(C)に本実施形態例の同4画素の配置を
示す。従来技術では補間に用いる画素が大きく離れてい
るのに対し、本実施形態例では、従来技術よりも短い距
離にある画素から着目画素ipが推定される。ipの値
は4つの画素の輝度値、i1−i4と4つの画素と着目
画素との距離d1−d4を用いて、式(3)のように、
距離dnによる重みつき荷重和をとることで計算され
る。
FIG. 6 shows a pixel interpolation method at the time of positioning according to the present invention. FIG. 6A shows the state of pixels of a plurality of frames mapped to the coordinate system of the reference frame. In the present embodiment, four pixels that provide the shortest distance belonging to four quadrants surrounding the target pixel ip are selected. FIG. 6B shows an arrangement of four pixels used for estimating a pixel of interest in the related art, and FIG. 6C shows an arrangement of the same four pixels in the present embodiment. In the prior art, the pixels used for interpolation are far apart, whereas in the present embodiment, the pixel of interest ip is estimated from pixels at a shorter distance than in the prior art. The value of ip is calculated by using the luminance values of four pixels, i1-i4, and the distance d1-d4 between the four pixels and the pixel of interest, as in Expression (3).
It is calculated by taking the weighted weighted sum by the distance dn.

【0039】 ip=Σj=1 nwj×ij wj=f(dj) …(3) これらのサンプルは4点でなくてもよく、2点、3点か
らも同様に計算される。重みの具体例として、以下の式
(4)の様に計算される。但し、d1≠0,d2≠0,
d3≠0,d4≠0とする。
Ip = Σ j = 1 n wj × ij wj = f (dj) (3) These samples need not be four points, and are similarly calculated from two points and three points. As a specific example of the weight, it is calculated as in the following equation (4). Where d1 ≠ 0, d2 ≠ 0,
It is assumed that d3 ≠ 0 and d4 ≠ 0.

【0040】 ip=k×(i1/d1+i2/d2+i3/d3+i4/d4) ∵k=(d1×d2×d3×d4)/(d2×d3×d4+d1×d3×d4 +d1×d2×d4+d1×d2×d3) …(4) また、2つめの具体例として以下の式(5)の様にも計
算できる。
Ip = k × (i1 / d1 + i2 / d2 + i3 / d3 + i4 / d4) ∵k = (d1 × d2 × d3 × d4) / (d2 × d3 × d4 + d1 × d3 × d4 + d1 × d2 × d4 + d1 × d2 × d3 (4) In addition, as a second specific example, it can be calculated as in the following equation (5).

【0041】 t=d1+d2+d3+d4 ip=((t−d1)/t)i1+((t−d2)/t)i2+((t−d3 )/t)i3+((t−d4)/t)i4 …(5) なお、図1で示した手段の一部もしくは全部を、コンピ
ュータを用いて機能させることができること、あるい
は、図2、図4で示した処理の段階をコンピュータで実
行させることができることは言うまでもなく、コンピュ
ータをその手段として機能させるためのプログラム、あ
るいは、コンピュータでその処理の段階を実行させるた
めのプログラムを、そのコンピュータが読み取り可能な
記録媒体、例えば、FD(フロッピー(登録商標)ディ
スク)や、MO、ROM、メモリカード、CD、DV
D、リムーバブルディスクなどに記録して提供し、配布
することが可能である。
T = d1 + d2 + d3 + d4 ip = ((t−d1) / t) i1 + ((t−d2) / t) i2 + ((t−d3) / t) i3 + ((t−d4) / t) i4 ... ( 5) It goes without saying that some or all of the means shown in FIG. 1 can be made to function using a computer, or the steps of the processing shown in FIGS. 2 and 4 can be executed by a computer. In addition, a program for causing a computer to function as the means or a program for causing a computer to execute the processing steps is stored in a computer-readable recording medium such as an FD (Floppy (registered trademark) disk) or , MO, ROM, memory card, CD, DV
D, recorded on a removable disk or the like, provided, and distributed.

【0042】[0042]

【発明の効果】本発明1によれば、基準フレームの標本
間隔より近い位置にある画素を用いてスプライトの画素
を計算することができるため、ぼけが少ないスプライト
を生成することができる。
According to the first aspect of the present invention, since a pixel of a sprite can be calculated by using a pixel located at a position closer than the sample interval of the reference frame, a sprite with less blur can be generated.

【0043】本発明2によれば、基準フレームの標本間
隔より近い位置にある画素を用いてスプライトの画素を
計算することができるため、ぼけが少ないスプライトを
生成することができる。また、最初にメディアン値を与
えるフレームの周辺フレームから補間画素の候補を選択
することで、動領域を排除したスプライトを生成するこ
とができる。
According to the second aspect of the present invention, since the pixels of the sprite can be calculated using the pixels located at positions closer than the sample interval of the reference frame, a sprite with less blur can be generated. In addition, by selecting a candidate of an interpolation pixel from a frame around a frame to which a median value is first given, a sprite excluding a moving region can be generated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明1に係る装置の一実施形態例を示す構成
図である。
FIG. 1 is a configuration diagram showing an embodiment of an apparatus according to the present invention 1. FIG.

【図2】本発明1に係る装置の実施形態例の動作例とと
もに、本発明1に係る方法の一実施形態例を示すフロー
チャートである。
FIG. 2 is a flowchart showing an example of an operation of an embodiment of the apparatus according to the present invention 1 and an embodiment of the method according to the present invention 1;

【図3】(A),(B),(C)は、本発明1の実施形
態例における位置合わせ時の画素の補完法を説明する図
である。
FIGS. 3A, 3B, and 3C are diagrams for explaining a method of complementing pixels at the time of alignment according to the first embodiment of the present invention; FIGS.

【図4】本発明2に係る装置の一実施形態例の動作例と
ともに、本発明2に係る方法の一実施形態例を示すフロ
ーチャートである。
FIG. 4 is a flowchart showing an example of an operation of an embodiment of the apparatus according to the present invention 2 and an embodiment of the method according to the present invention 2;

【図5】本発明2の実施形態例におけるメディアンフレ
ームおよびその周辺フレームの探索法を説明する図であ
る。
FIG. 5 is a diagram for explaining a method of searching for a median frame and its surrounding frames in the embodiment 2 of the present invention.

【図6】(A),(B),(C)は、本発明2の実施形
態例における位置合わせ時の画素の補完法を説明する図
である。
FIGS. 6A, 6B, and 6C are diagrams for explaining a method of complementing pixels at the time of position alignment according to the second embodiment of the present invention.

【図7】一般的なスプライトの概念図である。FIG. 7 is a conceptual diagram of a general sprite.

【図8】従来技術におけるスプライト生成時の位置合わ
せの概念図である。
FIG. 8 is a conceptual diagram of alignment in sprite generation in the related art.

【図9】従来技術における位置合わせ時の画素の補完法
を説明する図である。
FIG. 9 is a diagram illustrating a method of complementing pixels at the time of alignment according to the related art.

【符号の説明】[Explanation of symbols]

1…動画像入力手段 2…動きパラメータ抽出手段 3…基準フレーム決定手段 4…予測画像フレーム生成手段 5…標本点画素値計算手段 6…位置合わせ手段 REFERENCE SIGNS LIST 1 moving image input means 2 motion parameter extracting means 3 reference frame determining means 4 predicted image frame generating means 5 sample point pixel value calculating means 6 positioning means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/18 G06F 15/66 470J Fターム(参考) 5B057 BA02 CE08 DA07 DC22 DC30 5C054 FC12 FC13 FE12 5C082 AA27 BA41 BA43 CA21 CA31 CA52 CA74 CA81 CB01 DA87 MM10 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 7/18 G06F 15/66 470J F-term (Reference) 5B057 BA02 CE08 DA07 DC22 DC30 5C054 FC12 FC13 FE12 5C082 AA27 BA41 BA43 CA21 CA31 CA52 CA74 CA81 CB01 DA87 MM10

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 パン・ズームなどのカメラ操作を含んだ
動画像からフレーム間のグローバル動きパラメータを抽
出する段階と、 該動画像中に基準フレームを決定する段階と、 該抽出されたグローバル動きパラメータを該基準フレー
ム以外のフレームに作用させて予測画像を生成する段階
と、 該基準フレームの画素の標本位置あるいはその周囲に標
本点間隔が該基準フレームとは異なった状態で分布する
該予測画像を含む他の複数のフレームの画素値を用いて
標本点の画素値を計算する段階と、 該計算した標本点の画素値を用いて該基準フレームの背
景に対して該予測画像含む他の複数のフレームの画像
を、絵柄が連続して接続されるように配置する段階と
を、 有することを特徴とするスプライト生成方法。
1. Extracting global motion parameters between frames from a moving image including a camera operation such as panning and zooming; determining a reference frame in the moving image; Is applied to a frame other than the reference frame to generate a predicted image, and the predicted image whose sample point interval is distributed in a state different from the reference frame at or around a sample position of a pixel of the reference frame. Calculating the pixel value of the sample point using the pixel values of the other plurality of frames including the plurality of other frames including the predicted image with respect to the background of the reference frame using the pixel value of the calculated sample point. Arranging the images of the frames so that the pictures are connected continuously.
【請求項2】 パン・ズームなどのカメラ操作を含んだ
動画像からフレーム間のグローバル動きパラメータを抽
出する段階と、 該動画像中に基準フレームを決定する段階と、 該抽出されたグローバル動きパラメータを該基準フレー
ム以外のフレームに作用させて予測画像を生成する段階
と、 該基準フレームの座標の時間方向に存在する該予測画像
を含む他の複数のフレームの標本値のメディアン値を算
出し、該メディアン値を与えるフレームおよびその周辺
の複数のフレームにて該基準フレームの画素の標本位置
である格子座標あるいは該格子座標の近傍にあり格子座
標に近い位置の周囲に標本点間隔が該基準フレームとは
異なった状態で分布する該予測画像を含む他の複数のフ
レームの画素値を用いて標本点の画素値を計算する段階
と、 該計算した標本点の画素値を用いて該基準フレームの背
景に対して該予測画像を含む他の複数のフレームの画像
を、絵柄が連続して接続されるように配置する段階と
を、 有することを特徴とするスプライト生成方法。
2. Extracting a global motion parameter between frames from a moving image including a camera operation such as panning and zooming; determining a reference frame in the moving image; Is applied to a frame other than the reference frame to generate a predicted image, and a median value of sample values of a plurality of other frames including the predicted image existing in the time direction of the coordinates of the reference frame is calculated. In the frame giving the median value and a plurality of frames around the frame, the sampling point interval is set around the grid coordinate which is the sampling position of the pixel of the reference frame or around the position close to the grid coordinate and close to the grid coordinate. Calculating the pixel value of the sample point using the pixel values of the other plurality of frames including the predicted image distributed in a different state, Arranging images of a plurality of other frames including the predicted image with respect to the background of the reference frame using the calculated pixel values of the sample points so that the pictures are connected continuously. A sprite generation method characterized by the following.
【請求項3】 パン・ズームなどのカメラ操作を含んだ
動画像からフレーム間のグローバル動きパラメータを抽
出するグローバル動きパラメータ抽出手段と、 該動画像中に基準フレームを決定する基準フレーム決定
手段と、 該抽出されたグローバル動きパラメータを該基準フレー
ム以外のフレームに作用させて予測画像を生成する予測
画像生成手段と、 該基準フレームの画素の標本位置あるいはその周囲に標
本点間隔が該基準フレームとは異なった状態で分布する
該予測画像を含む他の複数のフレームの画素値を用いて
標本点の画素値を計算する標本点画素値計算手段と、 該計算した標本点の画素値を用いて該基準フレームの背
景に対して該予測画像を含む他の複数のフレームの画像
を、絵柄が連続して接続されるように配置する位置合わ
せ手段とを、 具備することを特徴とするスプライト生成装置。
3. Global motion parameter extracting means for extracting global motion parameters between frames from a moving image including a camera operation such as pan / zoom, and reference frame determining means for determining a reference frame in the moving image. Predictive image generating means for generating a predictive image by applying the extracted global motion parameter to a frame other than the reference frame; and a sample point interval at or around a sample position of a pixel of the reference frame. Sample point pixel value calculation means for calculating pixel values of sample points using pixel values of a plurality of other frames including the predicted image distributed in different states; and Positioning for arranging images of a plurality of other frames including the predicted image with respect to the background of the reference frame so that the pictures are connected continuously. Sprite generating apparatus characterized by the means comprises.
【請求項4】 パン・ズームなどのカメラ操作を含んだ
動画像からフレーム間のグローバル動きパラメータを抽
出するグローバル動きパラメータ抽出手段と、 該動画像中に基準フレームを決定する基準フレーム決定
手段と、 該抽出されたグローバル動きパラメータを該基準フレー
ム以外のフレームに作用させて予測画像を生成する予測
画像生成手段と、 該基準フレームの座標の時間方向に存在する該予測画像
を含む他の複数のフレームの標本値のメディアン値を算
出し、該メディアン値を与えるフレームおよびその周辺
の複数のフレームにて該基準フレームの画素の標本位置
である格子座標あるいは該格子座標の近傍にあり格子座
標に近い位置の周囲に標本点間隔が該基準フレームとは
異なった状態で分布する該予測画像を含む他の複数のフ
レームの画素値を用いて標本点の画素値を計算する標本
点画素値計算手段と、 該計算した標本点の画素値を用いて該基準フレームの背
景に対して該予測画像を含む他の複数のフレームの画像
を、絵柄が連続して接続させるように配置する位置合わ
せ手段とを、 具備することを特徴とするスプライト生成装置。
4. Global motion parameter extracting means for extracting global motion parameters between frames from a moving image including a camera operation such as panning and zooming; reference frame determining means for determining a reference frame in the moving image; Predicted image generating means for generating a predicted image by applying the extracted global motion parameter to a frame other than the reference frame; and a plurality of other frames including the predicted image existing in the time direction of the coordinates of the reference frame. Calculates the median value of the sample value of, the grid coordinates which are the sample positions of the pixels of the reference frame in the frame giving the median value and a plurality of frames around the frame, or a position near the grid coordinates and close to the grid coordinates And a plurality of other frames including the predicted image in which sampling point intervals are distributed in a state different from the reference frame around the reference frame. Sample point pixel value calculating means for calculating the pixel value of the sample point using the pixel value of the frame; and other pluralities including the predicted image with respect to the background of the reference frame using the pixel value of the calculated sample point. And a positioning means for arranging the images of the frames in such a way that the pictures are continuously connected.
【請求項5】 請求項1または2記載のスプライト生成
方法における段階をコンピュータで実行するためのプロ
グラムを、該コンピュータが読み取り可能な記録媒体に
記録したことを特徴とするスプライト生成方法を記録し
た記録媒体。
5. A recording recording the sprite generation method, wherein a program for executing the steps of the sprite generation method according to claim 1 on a computer is recorded on a recording medium readable by the computer. Medium.
JP10314236A 1998-11-05 1998-11-05 Sprite formation method and device and recording medium recording the method Pending JP2000148130A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10314236A JP2000148130A (en) 1998-11-05 1998-11-05 Sprite formation method and device and recording medium recording the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10314236A JP2000148130A (en) 1998-11-05 1998-11-05 Sprite formation method and device and recording medium recording the method

Publications (1)

Publication Number Publication Date
JP2000148130A true JP2000148130A (en) 2000-05-26

Family

ID=18050933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10314236A Pending JP2000148130A (en) 1998-11-05 1998-11-05 Sprite formation method and device and recording medium recording the method

Country Status (1)

Country Link
JP (1) JP2000148130A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100485559B1 (en) * 2001-07-04 2005-04-28 마츠시타 덴끼 산교 가부시키가이샤 Image signal encoding method, image signal encoding apparatus, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100485559B1 (en) * 2001-07-04 2005-04-28 마츠시타 덴끼 산교 가부시키가이샤 Image signal encoding method, image signal encoding apparatus, and recording medium
US7016411B2 (en) 2001-07-04 2006-03-21 Matsushita Electric Industrial Co. Ltd. Image signal coding method, image signal coding apparatus and storage medium

Similar Documents

Publication Publication Date Title
US10887519B2 (en) Method, system and apparatus for stabilising frames of a captured video sequence
RU2308816C2 (en) Method (variants) and image stabilization system
JP4700892B2 (en) Image matching
KR20090006068A (en) Method and apparatus for modifying a moving image sequence
US20040096119A1 (en) Efficient method for creating a viewpoint from plurality of images
JP6935247B2 (en) Image processing equipment, image processing methods, and programs
KR20090071624A (en) Image enhancement
JPH10285602A (en) Dynamic sprite for encoding video data
JP2001086507A (en) Image coder, image coding method, image decoder, image decoding method, medium and image processor
JP2011071986A (en) Method for producing high definition video from low definition video
Jeon et al. Texture map generation for 3D reconstructed scenes
EP3251086A1 (en) Method and apparatus for generating an initial superpixel label map for an image
JP5225313B2 (en) Image generating apparatus, image generating method, and program
KR101316848B1 (en) Apparatus and method for automatic object segmentation for background composition
JP3979768B2 (en) Digital video segmentation method and apparatus
CN114339030B (en) Network live video image stabilizing method based on self-adaptive separable convolution
JP2000148130A (en) Sprite formation method and device and recording medium recording the method
KR20010024416A (en) Static image generation method and device
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector
WO2019225322A1 (en) Image processing device, image processing method, and program
CN113298707A (en) Image frame splicing method, video inspection method, device, equipment and storage medium
JP6854629B2 (en) Image processing device, image processing method
KR100856474B1 (en) Stabilizing method for shaking video image
KR102561903B1 (en) AI-based XR content service method using cloud server
JP2003179930A (en) Method and apparatus for extracting dynamic object