JP3411469B2 - Frame multiplex image creation method - Google Patents

Frame multiplex image creation method

Info

Publication number
JP3411469B2
JP3411469B2 JP09567497A JP9567497A JP3411469B2 JP 3411469 B2 JP3411469 B2 JP 3411469B2 JP 09567497 A JP09567497 A JP 09567497A JP 9567497 A JP9567497 A JP 9567497A JP 3411469 B2 JP3411469 B2 JP 3411469B2
Authority
JP
Japan
Prior art keywords
frame
image
frames
mean
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP09567497A
Other languages
Japanese (ja)
Other versions
JPH10290450A (en
Inventor
豪 東野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP09567497A priority Critical patent/JP3411469B2/en
Publication of JPH10290450A publication Critical patent/JPH10290450A/en
Application granted granted Critical
Publication of JP3411469B2 publication Critical patent/JP3411469B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、蓄積映像あるいは
ネットワークや放送を介して得られた映像をパソコン等
のディスプレイに提示、ブラウズするシステムにおい
て、特に映像データから複数のフレームを抽出し、それ
らを合成して1枚の静止画像を作成するフレーム多重画
像作成方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system for presenting and browsing stored images or images obtained via a network or broadcast on a display such as a personal computer, and in particular, extracting a plurality of frames from image data and displaying them. The present invention relates to a frame multiplex image creating method for creating one still image by synthesizing.

【0002】[0002]

【従来の技術】従来、複数のフレームを重ね合せて1枚
の静止画像を作成する場合、映像データから等間隔等で
複数のフレームを選択し、該選択した各フレームの同一
位置の画素値をフレームに渡って平均値を求め、該平均
値を多重静止画像の画素値とする手法が一般的である。
2. Description of the Related Art Conventionally, when a plurality of frames are overlapped to create one still image, a plurality of frames are selected from video data at equal intervals, and pixel values at the same position of each selected frame are selected. A general method is to obtain an average value over frames and use the average value as a pixel value of a multiple still image.

【0003】[0003]

【発明が解決しようとする課題】従来技術では、多重す
る複数フレームに渡り、画素値の平均値をもってフレー
ム多重画像の画素値とするため、動きのある部分の画素
値が小さくなり、ほとんど見えなくなるという問題があ
る。例えば、人間が腕を振り上げる動作をしたときに、
ある腕の形(位置)は一つのフレームにしか写らず、ほ
かのフレームにおいては、その位置には背景が写ってい
るだけである。従って、単純にこれらのフレームの対応
する位置の画素値の平均をとるとすると背景に埋もれて
しまって、腕がほとんど見えなくなってしまう。
In the prior art, the average value of the pixel values is used as the pixel value of the frame-multiplexed image over a plurality of frames to be multiplexed, so that the pixel value of a moving portion becomes small and becomes almost invisible. There is a problem. For example, when a human swings his arm up,
The shape (position) of a certain arm is shown in only one frame, and in other frames, the background is shown in that position. Therefore, if the pixel values at the corresponding positions of these frames are simply taken, they will be buried in the background and the arm will be almost invisible.

【0004】本発明の第1の目的は、上記従来技術の問
題点を解決し、1フレームだけなどに現われた画像が薄
くなったり、見えなくなったりすることのないフレーム
多重画像作成方法を提供することにある。
A first object of the present invention is to solve the above-mentioned problems of the prior art and to provide a method for producing a frame multiplex image in which an image appearing in only one frame is not faded or invisible. Especially.

【0005】本発明の第2の目的は、多重するフレーム
を決定する際に、映像や物体の動作状況を把握して、動
作方向が変化した個所等の重要な意味を持つフレームを
逃がすことのないフレーム多重画像作成方法を提供する
ことにある。
A second object of the present invention is to, when determining a frame to be multiplexed, grasp the motion situation of an image or an object and escape a frame having an important meaning such as a location where the motion direction has changed. An object of the present invention is to provide a method of creating a frame-free multiplex image.

【0006】本発明の第3の目的は、映像中の物体の動
作方向を示す場合に、手作業でCG技術などを用いて画
像上に矢印を描画することなく、自動的に動作方向を示
す矢印を描画するようにして、矢印描画に要する時間を
短縮するフレーム多重画像作成方法を提供することにあ
る。
A third object of the present invention is to automatically indicate the movement direction of an object in a video without manually drawing an arrow on the image by using CG technology or the like. An object of the present invention is to provide a frame multiplex image creating method for drawing an arrow to shorten the time required for drawing the arrow.

【0007】[0007]

【課題を解決するための手段】上記第1の目的を達成す
るために、本発明は、映像データ中の多重する各フレー
ム画像(キーフレーム画像という)上の同じ位置にある
画素について、その輝度成分における平均値および標準
偏差を算出して画素値のばらつきの度合を判定し、ばら
つきの大なる画素には大きな重み係数を、小なる画素に
は小さな重み係数を与えて、それぞれ該重み係数と画素
値を掛け合せて加算し、これをキーフレーム画像の全画
素について実施することにより、1枚の静止画像を作成
することを特徴とする。
In order to achieve the above first object, the present invention relates to the luminance of pixels at the same position on each frame image (called a key frame image) to be multiplexed in video data. The average value and the standard deviation of the components are calculated to determine the degree of variation in pixel values. A large weighting coefficient is given to a pixel with a large variation and a small weighting coefficient is given to a small pixel. A feature is that one still image is created by multiplying and adding pixel values and performing this for all pixels of the key frame image.

【0008】また、上記第2の目的を達成するために、
本発明は、映像データ中の全フレームあるいは指定され
た範囲に含まれるフレームについて、各フレーム毎に、
映像中の物体の領域を抽出し、該領域の重心を算出し
て、該重心の移動方向および移動量が急激に変化したフ
レームをキーフレームとして選択することを特徴とす
る。
In order to achieve the second object,
The present invention, for every frame in the video data, or for each frame included in the specified range,
It is characterized in that a region of an object in an image is extracted, a center of gravity of the region is calculated, and a frame in which the moving direction and the moving amount of the center of gravity are rapidly changed is selected as a key frame.

【0009】さらに、上記第3の目的を達成するため
に、本発明は、上記と同様にして映像中の物体の重心を
求め、該重心のフレーム間の動きを追跡して、その軌跡
に最も良く当てはまる直線あるいは曲線を算出し、出力
静止画像上に、該直線あるいは曲線に動作方向を示す矢
印を自動的に描画することを特徴とする。
Further, in order to achieve the above third object, the present invention obtains the center of gravity of an object in an image in the same manner as described above, traces the movement between the frames of the center of gravity, and finds the best track on the trajectory. A feature is that a straight line or a curve that fits well is calculated, and an arrow indicating the operation direction is automatically drawn on the straight line or the curved line on the output still image.

【0010】[0010]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。図1は、本発明のフレーム
多重画像作成方法の概要を示す概念図である。ビデオデ
ータ110から指定された範囲内でK枚のフレーム12
0(キーフレーム画像)を選択し、これらフレーム画像
を画素対応に重ね合せることで1枚の静止画像130の
動きのわかるフレーム多重画像を作成する。なお、図1
では、4枚(K=4)のキーフレームが選択されている
様子を示している。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a conceptual diagram showing an outline of a frame multiplex image creating method of the present invention. K frames 12 within the specified range from the video data 110
By selecting 0 (key frame image) and superposing these frame images corresponding to pixels, a frame multiplex image in which the motion of one still image 130 can be understood is created. Note that FIG.
Shows that four (K = 4) key frames are selected.

【0011】図2は、本発明のフレーム多重画像作成方
法の第1の実施例の処理フローチャートであり、請求項
1の発明に対応するものである。
FIG. 2 is a processing flowchart of the first embodiment of the frame multiplex image creating method of the present invention, which corresponds to the invention of claim 1.

【0012】処理するフレーム範囲の開始/終了フレー
ムおよび選択するフレーム枚数Kを、Start/End Fr
ame番号および選択枚数指示部200で指定することに
より、ビデオデータ110より該指定された範囲内でK
枚のフレーム(キーフレーム)120を選択して、入力
する(ステップ201)。ここで、K枚のフレーム選択
手法としては、例えば、指定されたフレーム範囲内でK
−1等分して、該間隔の等分点に相当するフレームを選
択する手法等が考えられる。
The start / end frame of the frame range to be processed and the number K of frames to be selected are set to Start / End Fr.
By specifying the ame number and the number-of-selections instruction section 200, the K data within the specified range from the video data 110
A frame (key frame) 120 is selected and input (step 201). Here, as a method of selecting K frames, for example, K within a designated frame range is selected.
A method or the like in which -1 is equally divided and a frame corresponding to the equally divided points of the interval is selected can be considered.

【0013】入力ビデオデータがNTSCビデオ信号に
おけるYIQ成分以外で構成されている場合には、キー
フレーム画像をYIQ成分に変換する(ステップ20
2)。入力ビデオ信号がRGBで構成されている場合の
YIQ成分への変換式の一例を次の式(1)に示す。
If the input video data is composed of components other than the YIQ component in the NTSC video signal, the key frame image is converted into the YIQ component (step 20).
2). An example of the conversion formula to the YIQ component when the input video signal is composed of RGB is shown in the following formula (1).

【0014】[0014]

【数4】 [Equation 4]

【0015】YIQ変換後のK枚のキーフレーム画像の
各輝度成分(Y成分)について、初期画素位置(i,
j)を設定する(ステップ203)。ここでは、画像上
の画素を指定する際に(i,j)なる表記を用いること
とし、選択されたK枚のフレームを指定する際にkなる
表記を用いることとし、選択された第kフレーム上の位
置(i,j)上の輝度値をfY(i,j;k)と表記する
こととする。
For each luminance component (Y component) of the K keyframe images after YIQ conversion, the initial pixel position (i,
j) is set (step 203). Here, the notation (i, j) is used to specify pixels on the image, and the notation k is used to specify the selected K frames, and the selected k-th frame is used. The brightness value at the upper position (i, j) is represented as f Y (i, j; k).

【0016】位置(i,j)におけるK個の輝度値の平
均値(mean)および標準偏差(σ)を次の式(2),
(3)により算出する(ステップ204)。
The average value (mean) and standard deviation (σ) of the K luminance values at the position (i, j) are expressed by the following equation (2),
It is calculated by (3) (step 204).

【0017】[0017]

【数5】 [Equation 5]

【0018】[0018]

【数6】 [Equation 6]

【0019】各画素(K個)の輝度値、平均値および標
準偏差を用いて、次式(4)を満たす画素の数を求め、
Using the luminance value, average value and standard deviation of each pixel (K), the number of pixels satisfying the following equation (4) is obtained,

【0020】[0020]

【数7】 [Equation 7]

【0021】該画素数によって予め定めた規則に基づ
き、各画素の画素値に掛ける重み係数を決定する(ステ
ップ205)。
A weighting coefficient to be applied to the pixel value of each pixel is determined based on a rule determined in advance by the number of pixels (step 205).

【0022】図3に、K=4の場合について、各画素の
輝度値と平均値および標準偏差の関係を示す。図3
(a)は、K個(4個)全ての輝度値がmeani,j±σの
範囲に収まっているので、式(4)を満たす画素数は0
である。同様に同図(b)の場合は1個、同図(c)は
2個、同図(d)は3個、同図(e)は4個である。式
(4)を満たす画素数によって、例えば、表1に従って
各画素の画素値f(i,j:k)に掛ける重み係数w
(j,j;k)を決定する。
FIG. 3 shows the relationship between the luminance value of each pixel, the average value and the standard deviation when K = 4. Figure 3
In (a), since all K (4) luminance values are within the range of mean i, j ± σ, the number of pixels satisfying the equation (4) is 0.
Is. Similarly, in the case of FIG. 3B, the number is 1, the number in FIG. 2C is 2, the number in FIG. 3D is 3, and the number in FIG. Depending on the number of pixels satisfying the equation (4), for example, the weighting factor w by which the pixel value f (i, j: k) of each pixel is multiplied according to Table 1.
Determine (j, j; k).

【0023】[0023]

【表1】 [Table 1]

【0024】なお、重み係数w(j,j;k)のkに関
する総和は1でなければならない。すなわち、次の式
(5)を満たす必要がある。
The sum of weighting factors w (j, j; k) with respect to k must be 1. That is, it is necessary to satisfy the following expression (5).

【0025】[0025]

【数8】 [Equation 8]

【0026】ステップ205の処理によって決定された
重み係数w(j,j;k)を用いて、次の式(6)のよ
うにフレーム多重画像上の位置(i,j)の画素値を算
出する(ステップ206)。なお、式(6)で、g
(i,j)は、フレーム多重画像上の位置(i,j)の画
素値を示す。添え字R,G,Bは、RGB画像の場合の
各成分を示す。
Using the weighting factor w (j, j; k) determined by the processing of step 205, the pixel value at the position (i, j) on the frame multiplex image is calculated as in the following equation (6). (Step 206). In equation (6), g
(I, j) indicates the pixel value at the position (i, j) on the frame multiplex image. The subscripts R, G, B indicate each component in the case of RGB image.

【0027】[0027]

【数9】 [Equation 9]

【0028】ステップ207において、ステップ204
〜206の処理が全画素に渡って実施されたか否かを判
断し、未終了であれば、次の画素位置を設定した後(ス
テップ208)、ステップ204に戻り、該位置(i,
j)におけるK個の輝度値の平均/標準偏差算出から処
理を繰り返す。一方、終了と判定された場合には、フレ
ーム多重画像130を出力し、本処理を終了する。
In step 207, step 204
It is determined whether or not the processing of steps 206 to 206 have been performed for all pixels, and if the processing is not completed, the next pixel position is set (step 208) and then the process returns to step 204 and the position (i,
The process is repeated from the calculation of the average / standard deviation of the K luminance values in j). On the other hand, when it is determined that the process is finished, the frame multiplex image 130 is output and the process is finished.

【0029】図4は、本発明のフレーム多重画像作成方
法の第2の実施例の処理フローチャートである。これ
は、請求項2の発明に対応し、人が動作している映像に
おいて、特に手の動きに注目してキーフレームを選択す
る場合に適用する際の処理を示したものである。
FIG. 4 is a processing flowchart of the second embodiment of the frame multiplex image creating method of the present invention. This corresponds to the invention of claim 2 and shows a process applied when a key frame is selected by paying particular attention to the movement of the hand in a moving image of a person.

【0030】Start/End Frame番号指示部400に
おいて、本処理の対象とするフレーム範囲を指定するこ
とにより、該指示された範囲内のフレーム画像データを
ビデオデータ110よりフレーム単位に順次入力する
(ステップ401)。該入力されたフレーム画像データ
から、左右の各手の重心位置を抽出する(ステップ40
2)。
In the Start / End Frame number designating section 400, by designating the frame range to be the subject of this processing, the frame image data within the designated range is sequentially input from the video data 110 frame by frame (step 401). The position of the center of gravity of each of the left and right hands is extracted from the input frame image data (step 40).
2).

【0031】図5に、左右各手の重心位置抽出処理の一
例を示す。例えば、入力映像の色成分がRGB等のYI
Q成分画像以外であった場合は、先の式(1)等を用い
てYIQ成分画像に変換する(ステップ501)。該Y
IQ成分のうちのI成分画像が肌色に対して高い画素値
を持つ事を利用して、I成分画像に対する閾値処理を施
して肌色領域を抽出し(ステップ502)、該抽出され
た各肌色領域にラベリングを施す(ステップ503)。
そして、該ラベリングされた複数の肌色領域から左右の
手領域と思われる領域を抽出する(ステップ504)。
例えば、一番面積が広い肌色領域が顔であり、二番目お
よび三番目に面積が広い領域が左右各手であると判断す
る。
FIG. 5 shows an example of the barycentric position extraction processing for the left and right hands. For example, if the color components of the input image are YI such as RGB.
If the image is other than the Q component image, it is converted to the YIQ component image using the above equation (1) or the like (step 501). The Y
Utilizing the fact that the I component image of the IQ components has a high pixel value for the skin color, threshold processing is performed on the I component image to extract a skin color region (step 502), and each of the extracted skin color regions is extracted. Is labeled (step 503).
Then, regions that are considered to be the left and right hand regions are extracted from the plurality of labeled skin color regions (step 504).
For example, it is determined that the skin-colored area having the largest area is the face, and the areas having the second and third largest areas are the left and right hands.

【0032】複数の肌色領域から左右の手領域を判断す
る様子を、図6を用いて説明する。図6(a)が元の画
像であり、(b)が肌色領域抽出結果であり、1,2,
3,4,5,6とラベリングを施されている。図6
(b)で、3個以上の領域が肌色と判断されているの
は、ノイズデータ等によるものであり、真に肌色の領域
とは限らない。この内、面積が最大のラベル2の領域が
顔であり、二番目および三番目に面積の広いラベル3,
4がそれぞれ左手、右手の領域であると判断する。
How to determine the left and right hand regions from a plurality of skin color regions will be described with reference to FIG. FIG. 6A is the original image, and FIG. 6B is the skin color region extraction result.
Labeled as 3, 4, 5, and 6. Figure 6
In (b), it is due to noise data that the three or more areas are judged to be skin-colored, and it is not always true skin-colored areas. Of these, the area of the label 2 having the largest area is the face, and the second and third largest areas of the label 3,
It is determined that 4 is the area of the left hand and the area of the right hand, respectively.

【0033】左右の手領域と判断された領域について、
各領域の重心位置(Ci,Cj)を次の式(7)を用いて
求める(ステップ505)。なお、式(7)でNは左ま
たは右の手の領域に含まれる画素数、in,jnは左また
は右の手の領域に含まれる画素の座標を示す。
Regarding the areas judged to be the left and right hand areas,
The barycentric position (C i , C j ) of each area is obtained using the following equation (7) (step 505). In Expression (7), N represents the number of pixels included in the left or right hand region, and i n and j n represent coordinates of pixels included in the left or right hand region.

【0034】[0034]

【数10】 [Equation 10]

【0035】図4に戻り、上記算出された左右の重心位
置のフレーム間での移動方向および移動量を算出する
(ステップ403)。そして、該移動方向あるいは移動
量が予め指定されている閾値を超えた場合に、該フレー
ムにおいては手の動作方向あるいは動作速度が変化した
として、該フレームをキーフレーム120と判断し、該
フレーム画像データを保存する(ステップ404,40
5)。キーフレームと判断されなかった場合には、該保
存処理は行わず、次のフレーム処理に移る。
Returning to FIG. 4, the movement direction and the movement amount between the frames of the calculated left and right center of gravity positions are calculated (step 403). Then, when the movement direction or movement amount exceeds a predetermined threshold value, it is determined that the movement direction or movement speed of the hand in the frame has changed, the frame is determined to be the key frame 120, and the frame image Save the data (steps 404, 40)
5). If it is not determined to be a key frame, the saving process is not performed and the next frame process is performed.

【0036】ステップ406において、全フレームを処
理したか否かを判定し、未終了であれば、次のフレーム
番号を設定した後(ステップ407)、ステップ401
のフレーム画像データ入力処理に戻り、次のフレームに
対して同様の処理を行う。
In step 406, it is determined whether or not all the frames have been processed, and if not completed, the next frame number is set (step 407) and then step 401.
The process returns to the frame image data input process of, and the same process is performed for the next frame.

【0037】以上のようにして、ビデオデータ110の
全フレームに対して処理が終了した場合、保存されてい
るキーフレーム画像を用いて、フレーム多重画像作成処
理を実行し(ステップ408)、フレーム多重画像13
0を作成する。なお、ステップ408は、図2のステッ
プ203以降の処理と同じである。
When the processing is completed for all the frames of the video data 110 as described above, the frame multiplex image creation processing is executed using the stored key frame image (step 408), and the frame multiplex image is created. Image 13
Create 0. Note that step 408 is the same as the processing after step 203 in FIG.

【0038】図7は、本発明のフレーム多重画像作成方
法の第3の実施例の処理フローチャートである。これ
は、請求項3の発明に対応し、人が動作している映像に
おいて手の動きを示す矢印を自動的に描画する場合に適
用する際の処理を示したものである。
FIG. 7 is a processing flowchart of the third embodiment of the frame multiplex image creating method of the present invention. This corresponds to the invention of claim 3 and shows a process applied when automatically drawing an arrow indicating a hand movement in a moving image of a person.

【0039】Start/End Frame番号指示部700に
おいて、本処理の対象とするフレーム範囲を指定するこ
とにより、該指示された範囲内のフレーム画像データを
ビデオデータ110より順次フレーム単位で入力する
(ステップ701)。該入力されたフレーム画像データ
から、図5で説明したと同様の手法で左右の手の重心位
置を抽出し(ステップ702)、該重心座標データ71
0を保存した後(ステップ703)、キーフレーム判定
処理を行い、キーフレーム120を選択して保存する
(ステップ704)。このステップ704は図4のステ
ップ403〜405に該当する。なお、キーフレームは
第1の実施例と同様にして選択し、それらのフレーム画
像について左右の手の重心位置を抽出することでもよ
い。
In the Start / End Frame number designating section 700, by designating the frame range to be the subject of this processing, the frame image data within the designated range is sequentially input from the video data 110 in frame units (step). 701). From the input frame image data, the barycentric positions of the left and right hands are extracted by the same method as described with reference to FIG. 5 (step 702), and the barycentric coordinate data 71 is extracted.
After storing 0 (step 703), key frame determination processing is performed, and the key frame 120 is selected and stored (step 704). This step 704 corresponds to steps 403-405 of FIG. The key frames may be selected in the same manner as in the first embodiment, and the barycentric positions of the left and right hands may be extracted from those frame images.

【0040】ステップ705において、ビデオデータ1
10の全フレームに対して上記処理を実施したか否かを
判定し、未終了の場合には、次のフレーム番号を設定し
た後(ステップ706)、ステップ701のフレーム画
像データ入力処理に戻って、同様の処理を次のフレーム
に対して実施する。全フレームに対して処理が終了した
場合には、保存されている複数のキーフレーム画像12
0を用いてフレーム多重画像作成処理を実行し、フレー
ム多重画像130を作成する(ステップ707)。この
ステップ707は、図2のステップ203以降の処理と
同じである。
In step 705, the video data 1
It is determined whether or not the above processing has been performed for all 10 frames, and if the processing has not been completed, the next frame number is set (step 706) and the process returns to the frame image data input processing of step 701. , Similar processing is performed for the next frame. When the processing is completed for all the frames, the plurality of stored key frame images 12
The frame multiplex image creation process is executed using 0 to create the frame multiplex image 130 (step 707). This step 707 is the same as the processing after step 203 in FIG.

【0041】その後、保存しておいた重心座標データ7
10を用いて、各フレームの左右の手の重心間連結を最
も良く近似する直線または曲線を表す式を算出する(ス
テップ708)。該重心間連結を最も良く近似する直線
または曲線の例を図8(a)に示す。図中、右側縦に直
線状に並んでいるのが各フレームの左手重心位置であ
り、左側曲線状に並んでいるのが各フレームの右手重心
位置である。図8(a)に示したように、左手重心間連
結を最も良く近似するのは直線であり、右手のそれは曲
線である。なお、一つの直線や曲線だけではなく複数の
直線や曲線の連結によって近似するのが最もよい場合も
ある。
After that, the barycentric coordinate data 7 saved
10 is used to calculate an equation representing a straight line or a curve that best approximates the connection between the centers of gravity of the left and right hands of each frame (step 708). An example of a straight line or a curve that most closely approximates the connection between the centers of gravity is shown in FIG. In the figure, the left hand center of gravity of each frame is linearly arranged vertically on the right side, and the right hand center of gravity of each frame is lined up on the left side. As shown in FIG. 8A, it is a straight line that best approximates the left-hand center-of-gravity connection, and a curved line is the right-hand one. In some cases, it is best to approximate not only one straight line or curve but also a plurality of straight lines or curves.

【0042】上記算出され式のた直線/曲線を、フレー
ム多重画像130上に時間的経過を示す矢印を伴って描
き、矢印付フレーム多重画像720として出力する(ス
テップ709)。該矢印付フレーム多重画像を図8
(b)に示す。
The calculated straight line / curve is drawn on the frame multiplex image 130 with an arrow indicating the passage of time, and is output as a frame multiplex image with arrow 720 (step 709). The frame-multiplexed image with the arrow is shown in FIG.
It shows in (b).

【0043】以上、本発明の各実施の形態を説明した
が、これらは、いわゆるコンピュータを利用して実現さ
れるものである。その際、図2、図4、図5および図7
に示したような処理フロー(手順)は、アプリケーショ
ンプログラムとしてあらかじめコンピュータ内に用意し
ておいてもよいし、あるいは、これらの手順を記述した
プログラムを記録した記録媒体(フロッピーディスク、
光ディスク等)をコンピュータにかけて読み込ませる
(インストール)ことでもよい。
The respective embodiments of the present invention have been described above, but these are realized by using a so-called computer. At that time, FIG. 2, FIG. 4, FIG.
The processing flow (procedure) as shown in (1) may be prepared as an application program in a computer in advance, or a recording medium (floppy disk,
Alternatively, an optical disk or the like) may be read (installed) by a computer.

【0044】[0044]

【発明の効果】以上説明したように、本発明のフレーム
多重画像作成方法を利用すれば次のような効果が得られ
る。
As described above, the following effects can be obtained by using the frame multiplex image creating method of the present invention.

【0045】(1)多重するフレーム画像上の同じ位置
にある画素値のばらつきの度合いを平均値と標準偏差を
用いて判定し、該判定結果に基づいて各画素値に掛ける
重み係数を決定し加算することにより、従来のように動
きのある部分の画素値が小さくなり、ほとんど見えなく
なるということが防止できる。
(1) The degree of variation of pixel values at the same position on the frame images to be multiplexed is determined by using the average value and the standard deviation, and the weighting coefficient to be applied to each pixel value is determined based on the determination result. By adding, it is possible to prevent the pixel value of a moving portion from becoming smaller and becoming almost invisible as in the conventional case.

【0046】(2)多重するフレームを決定する際に
は、映像中の物体の動作状況を把握し、該物体の移動方
向あるいは移動量が急激に変化したフレームを選択する
ことにより、動作方向が変化した個所等の重要な意味を
持つフレームを逃がすことが防止できる。
(2) When determining a frame to be multiplexed, the motion direction of the object in the image is grasped and the motion direction of the object is selected by selecting the frame in which the motion amount is drastically changed. It is possible to prevent escape of a frame having an important meaning such as a changed part.

【0047】(3)映像中の物体の動作方向を示す場合
に、映像中の物体の重心を求め、該重心のフレームの間
の動きを追跡し、該追跡によって得られる軌跡を最もよ
く表現する直線または曲線を算出して、自動的に動作方
向を示す矢印を出力静止画像上に描画することにより、
手作業でCG技術等を用いて描画する必要がなく、矢印
描画に要する時間を短縮することができる。
(3) When the moving direction of the object in the image is shown, the center of gravity of the object in the image is obtained, the movement between the frames of the center of gravity is tracked, and the trajectory obtained by the tracking is best expressed. By calculating a straight line or curve and automatically drawing an arrow indicating the direction of movement on the output still image,
It is not necessary to manually draw by using CG technology or the like, and the time required for arrow drawing can be shortened.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のフレーム多重画像作成方法の概要を示
す概念図である。
FIG. 1 is a conceptual diagram showing an outline of a frame multiplex image creating method of the present invention.

【図2】本発明の第1の実施の形態の処理を示すフロー
チャートである。
FIG. 2 is a flowchart showing a process of the first exemplary embodiment of the present invention.

【図3】各キーフレーム上の同位置画素の輝度値と平均
値および標準偏差の関係を説明する図である。
FIG. 3 is a diagram illustrating a relationship among a luminance value of pixels at the same position on each key frame, an average value, and a standard deviation.

【図4】本発明の第2の実施の形態の処理を示すフロー
チャートである。
FIG. 4 is a flowchart showing a process of the second embodiment of the present invention.

【図5】図4中の左右各重心位置抽出処理の一例を示す
フローチャートである。
5 is a flowchart showing an example of left and right centroid position extraction processing in FIG. 4. FIG.

【図6】映像中の物体の領域抽出として肌色領域の抽
出、クラスリングおよびラベリングの概要を示す概念図
である。
FIG. 6 is a conceptual diagram showing an outline of extraction of a skin color area, classing, and labeling as area extraction of an object in an image.

【図7】本発明の第3の実施の形態の処理を示すフロー
チャートである。
FIG. 7 is a flowchart showing a process of the third embodiment of the present invention.

【図8】映像中の物体の動作の描画として左右の手の重
心の軌跡とそれを近似する直線/曲線の例を示す概念図
である。
FIG. 8 is a conceptual diagram showing an example of a locus of the center of gravity of the left and right hands and a straight line / curve that approximates the locus of the center of gravity of the hand as a drawing of the motion of an object in a video.

【符号の説明】[Explanation of symbols]

110 ビデオデータ 120 キーフレーム画像 130 フレーム多重画像 110 video data 120 keyframe images 130 frame multiplex image

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 映像データから複数のフレーム画像を抽
出し、それらを重ね合せて1枚の静止画像を作成する方
法において、 映像データ中の全フレームあるいは指定された範囲に含
まれるフレームからK枚(Kは2以上の整数)のフレー
ムをキーフレームとして選択し、 該選択された各キーフレーム画像上の同じ位置(i,
j)にあるK個の画素について、その輝度成分における
平均値(meani,j)および標準偏差(σi,j)を次式によ
り算出し、 【数1】 【数2】 Y(i,j;k):第kフレーム画像上の位置(i,
j)の画素の輝度値各画素の輝度値fY(i,j;k)と
前記算出した平均値(meani,j)および標準偏差
(σi,j)を用いて、meani,j+σi,j<fY(i,j;
k)またはmeani,j−σi,j>fY(i,j;k)なる画素
には大きな重み係数を与え、meani,j−σi,j<fY(i,
j;k)<meani,j+σi,jなる画素には小さな重み係数
を与え、 出力静止画像上の同じ位置(i,j)における画素値g
(i,j)を次式により算出し、 【数3】 前記の処理をキーフレーム画像の各画素について実施す
ることにより、K枚のキーフレームを重ね合せた1枚の
静止画像を作成することを特徴とするフレーム多重画像
作成方法。
1. A method for extracting a plurality of frame images from video data and superimposing them to create one still image, wherein K frames are selected from all frames in the video data or frames included in a specified range. A frame of (K is an integer of 2 or more) is selected as a key frame, and the same position (i,
For K pixels in j), the average value (mean i, j ) and standard deviation (σ i, j ) in the luminance component are calculated by the following equation, and [Equation 2] f Y (i, j; k): Position (i, j on the k-th frame image
j) luminance value of pixel, using the luminance value f Y (i, j; k) of each pixel and the calculated average value (mean i, j ) and standard deviation (σ i, j ), mean i, j + Σ i, j <f Y (i, j;
k) or mean i, j −σ i, j > f Y (i, j; k) is given a large weighting coefficient, and mean i, j −σ i, j <f Y (i, j
j; k) <mean i, j + σ i, j is given a small weighting coefficient to the pixel value g at the same position (i, j) on the output still image.
(I, j) is calculated by the following equation, and A method for producing a frame multiplex image, characterized in that one still image in which K key frames are superposed is produced by performing the above-mentioned processing for each pixel of the key frame image.
【請求項2】 請求項1記載のフレーム多重画像作成方
法において、映像データ中の全フレームあるいは指定さ
れた範囲に含まれるフレームについて、各フレーム毎
に、映像中の予め指定された物体の領域を抽出し、該領
域の重心を算出し、該重心の移動方向および移動量があ
らかじめ定められた閾値を超えたフレームをキーフレー
ムとして選択することを特徴とするフレーム多重画像作
成方法。
2. The frame multiplex image creating method according to claim 1, wherein for every frame in the video data or for a frame included in a specified range, an area of a predesignated object in the video is set. A method for creating a frame multiplex image, comprising extracting, calculating the center of gravity of the region, and selecting a frame whose moving direction and moving amount of the center of gravity exceed a predetermined threshold value as a key frame.
【請求項3】 請求項1もしくは2記載のフレーム多重
画像作成方法において、各フレーム毎に、映像中の予め
指定された物体の領域を抽出し、該領域の重心を算出
し、該重心を各フレームに渡って追跡して、該追跡した
軌跡の直線あるいは曲線を算出し、該直線あるいは曲線
に動作方向を示す矢印を付加して、出力静止画像上に描
画することを特徴とするフレーム多重画像作成方法。
3. The frame multiplex image creating method according to claim 1, wherein a region of a predesignated object in a video is extracted for each frame, a center of gravity of the region is calculated, and the center of gravity is calculated for each frame. A frame multiplex image characterized by tracing over a frame, calculating a straight line or curve of the traced locus, adding an arrow indicating a motion direction to the straight line or curve, and drawing on an output still image How to make.
JP09567497A 1997-04-14 1997-04-14 Frame multiplex image creation method Expired - Fee Related JP3411469B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09567497A JP3411469B2 (en) 1997-04-14 1997-04-14 Frame multiplex image creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09567497A JP3411469B2 (en) 1997-04-14 1997-04-14 Frame multiplex image creation method

Publications (2)

Publication Number Publication Date
JPH10290450A JPH10290450A (en) 1998-10-27
JP3411469B2 true JP3411469B2 (en) 2003-06-03

Family

ID=14144059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09567497A Expired - Fee Related JP3411469B2 (en) 1997-04-14 1997-04-14 Frame multiplex image creation method

Country Status (1)

Country Link
JP (1) JP3411469B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221680A (en) * 2010-04-07 2011-11-04 Hasumi Toru Image synthesizing method, image synthesis program and image synthesizer

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100579890B1 (en) 2004-12-30 2006-05-15 삼성전자주식회사 Motion adaptive image pocessing apparatus and method thereof
JP4499693B2 (en) 2006-05-08 2010-07-07 ソニー株式会社 Image processing apparatus, image processing method, and program
JP4797847B2 (en) * 2006-07-12 2011-10-19 ソニー株式会社 Image processing apparatus, image processing procedure and program
JP5168837B2 (en) 2006-07-27 2013-03-27 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2008167220A (en) * 2006-12-28 2008-07-17 Canon Inc Image processing apparatus and method, and program and recording medium
JP4415198B2 (en) 2007-08-30 2010-02-17 カシオ計算機株式会社 Image composition apparatus and program
JP4900266B2 (en) * 2008-01-30 2012-03-21 ソニー株式会社 Image processing apparatus, image processing method, and program
JP4900265B2 (en) * 2008-01-30 2012-03-21 ソニー株式会社 Image processing apparatus, image processing method, and program
JP4544332B2 (en) * 2008-04-07 2010-09-15 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5339065B2 (en) * 2009-03-17 2013-11-13 大日本印刷株式会社 Object tracking device
JP5864983B2 (en) * 2011-09-26 2016-02-17 オリンパス株式会社 Image processing device
JP5914189B2 (en) * 2012-06-08 2016-05-11 オリンパス株式会社 Image processing apparatus, image processing method, image processing program, and imaging apparatus
JP7345236B2 (en) * 2017-11-10 2023-09-15 株式会社小松製作所 Method, system, method for producing trained classification model, learning data, and method for producing learning data for estimating operation of work vehicle
JP7024539B2 (en) 2018-03-22 2022-02-24 カシオ計算機株式会社 Image editing device, image editing method, and program
CN111199717B (en) * 2018-11-19 2022-03-11 深圳Tcl新技术有限公司 Mura compensation method and system for liquid crystal display screen and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221680A (en) * 2010-04-07 2011-11-04 Hasumi Toru Image synthesizing method, image synthesis program and image synthesizer

Also Published As

Publication number Publication date
JPH10290450A (en) 1998-10-27

Similar Documents

Publication Publication Date Title
JP3411469B2 (en) Frame multiplex image creation method
JP3189870B2 (en) Image processing device
US7024020B2 (en) Apparatus and method for generating object-labeled image in video sequence
US6999069B1 (en) Method and apparatus for synthesizing images
US7003061B2 (en) Image extraction from complex scenes in digital video
JP3812763B2 (en) Key signal generating apparatus and method
JP2856229B2 (en) Image clipping point detection method
CN110490896B (en) Video frame image processing method and device
US20110115786A1 (en) Image processing apparatus, image processing method, and program
WO2001026050A2 (en) Improved image segmentation processing by user-guided image processing techniques
JPH07302336A (en) Method and apparatus for making feature of image ambiguous
US20210158593A1 (en) Pose selection and animation of characters using video data and training techniques
JP3993029B2 (en) Makeup simulation apparatus, makeup simulation method, makeup simulation program, and recording medium recording the program
JP2001521656A (en) Computer system process and user interface providing intelligent scissors for image composition
JP3753625B2 (en) Expression animation generation apparatus and expression animation generation method
Leung et al. Realistic video avatar
JPH11175765A (en) Method and device for generating three-dimensional model and storage medium
JP2973432B2 (en) Image processing method and apparatus
US6429866B1 (en) Three-dimensional graphics drawing apparatus calculating tone of pixel based on tones of pixels at prescribed intervals, method thereof and medium recorded with program therefor
JP3677253B2 (en) Video editing method and program
JP3727768B2 (en) Computer image display method and display device
JP3316445B2 (en) Image synthesis device
JP2002208013A (en) Device for extracting image area and method for the same
JPH0993530A (en) Video image change point detector and video image change point detecting method
JP2786261B2 (en) Color image processing method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090320

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090320

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100320

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees