JPH02278479A - Labelling device for moving image - Google Patents

Labelling device for moving image

Info

Publication number
JPH02278479A
JPH02278479A JP1100866A JP10086689A JPH02278479A JP H02278479 A JPH02278479 A JP H02278479A JP 1100866 A JP1100866 A JP 1100866A JP 10086689 A JP10086689 A JP 10086689A JP H02278479 A JPH02278479 A JP H02278479A
Authority
JP
Japan
Prior art keywords
frame
label
optical flow
moving image
peak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1100866A
Other languages
Japanese (ja)
Other versions
JP2697117B2 (en
Inventor
Toshio Endo
利生 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1100866A priority Critical patent/JP2697117B2/en
Publication of JPH02278479A publication Critical patent/JPH02278479A/en
Application granted granted Critical
Publication of JP2697117B2 publication Critical patent/JP2697117B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To apply separate labels to respective objects even when the objects are mutually overlapped in a moving image by using the calculation technique of optical flow, which shows the motion of each picture element for each frame, for labelling processing. CONSTITUTION:A labelling device 1, optical flow calculator 2, histogram calculator 3, peak calculator 4, center of gravity calculator 5, processed result storage device 6, inter-frame correspondence device 7 and table updating device 8 are provided. Based on a label picture, for which the moving image of a certain frame is labelled, and the optical flow of the frame, the two-dimensional histogram of the optical flow is calculated for each frame and compared with the processed result of the preceding frame concerning the peak of the histogram and quantity expressing the average position of each label. Thus, even when the objects are mutually overlapped in a certain frame, the original labels can be applied to the respective objects.

Description

【発明の詳細な説明】 〔目 次〕 概要 産業上の利用分野 従来の技術と発明が解決しようとする課題課題を解決す
るための手段 作用 実施例 発明の効果 〔概要〕 動画像に対してラベル付けを行う画像処理装置に関し、 動画像において、ラベルを付与された物体同士が重なっ
ている場合においても、それらに対して別々のラベルを
付与し、フレーム間での物体同士の対応をとることを、
より確実に行うことができる画像処理装置を構成するこ
とを目的とし、動画像のフレーム毎に、暫定的なラベル
を付与する装置と、該動画像のフレーム毎のオプティカ
ルフローを算出する装置と、上記動画像のフレム毎に付
与されたラベル毎にオプティカルフロのヒストグラムを
算出する装置と、該算出されたヒストグラムのピークの
候補を算出する装置と、該ラベル毎の平均的な位置を算
出する装置と、1つ前のフレームに対する上記各処理結
果を記憶する装置と、上記1つ前のフレームに対する上
記各処理結果と現フレームの上記平均的な位置、ピーク
の候補とから、上記1つ前のフレームと現フレームのラ
ベルの対応付けを行う装置と、上記対応結果から正しい
ラヘル画像を算出する装置とからなるように構成する。
[Detailed Description of the Invention] [Table of Contents] Overview Industrial Application Fields Conventional Technology and Problems to be Solved by the Invention Means for Solving the Problems Actions Examples Effects of the Invention [Summary] Labels for moving images Regarding the image processing device that performs labeling, even when labeled objects overlap in a moving image, it is possible to assign separate labels to them and to correspond between the objects between frames. ,
The purpose of the present invention is to configure an image processing device that can perform the processing more reliably, and includes a device that assigns a temporary label to each frame of a moving image, and a device that calculates an optical flow for each frame of the moving image. A device that calculates an optical flow histogram for each label assigned to each frame of the moving image, a device that calculates peak candidates of the calculated histogram, and a device that calculates the average position of each label. and a device for storing each of the processing results for the previous frame, and a device for storing the processing results for the previous frame, and the average position and peak candidate of the current frame. The system is configured to include a device that associates labels between frames and the current frame, and a device that calculates a correct Rahel image from the above-mentioned association results.

〔産業上の利用分野〕[Industrial application field]

本発明は、動画像に対してラベル付けを行う画像処理装
置に関する。
The present invention relates to an image processing device that labels moving images.

画像処理における動画像は、テレビの画面のよう乙こ、
時間的に、少しづつ変化している多数の画像のことであ
り、これらの1枚1枚の画像をフレームと呼んでいる。
In image processing, moving images are similar to TV screens.
It refers to a large number of images that change little by little over time, and each of these images is called a frame.

従って、該動画像処理に固有のものとして、フレーム間
で、あるフレームのどの物体が他のフレムのどの物体と
対応するかを追跡する処理がある。
Therefore, as something specific to the moving image processing, there is a process of tracking which object in a certain frame corresponds to which object in another frame between frames.

この処理は、例えば、ファクトリオートメーション(F
A)におけるロボットの目、或いは、外界を認識して無
人で走る自律走行車等にとって必須のものである。
This process can be performed, for example, in factory automation (F
It is essential for the robot's eyes in A) or for autonomous vehicles that recognize the outside world and run unmanned.

然しなから、該動画像の各フレーム中の物体に付与する
ラベル付け処理においては、従来技術では、物体同士が
重なっていると、それらに対して1つのラベルを付与し
てしまい、フレーム同土間で物体同士の対応をとること
が完全でない問題があり、動画像における各フレーム中
の物体に、正iI′llIにラベル付けを行うことがで
きる装置が必要とされていた。
However, in the process of labeling objects in each frame of the moving image, in the conventional technology, if objects overlap, one label is assigned to them, and the frames are There is a problem in that the correspondence between objects is not perfect, and there is a need for an apparatus that can correctly label objects in each frame of a moving image.

〔従来の技術と発明が解決しようとする課題〕第3図は
従来の動画像におけるラベル付け処理を説明する図であ
り、(a)は人力画像の例を示し、(b)は2値化処理
結果を示し、(c)は従来のラベル付け処理の結果の例
を示しており、第4図はオプティカルフローの算出を説
明する図であって、(a)は入力画像の例を示し、(b
)はオプティカルフロー算出結果の例を示している。
[Prior art and problems to be solved by the invention] Fig. 3 is a diagram explaining the conventional labeling process for moving images, in which (a) shows an example of a human-powered image, and (b) shows a binarized image. Processing results are shown, (c) shows an example of the results of conventional labeling processing, FIG. 4 is a diagram illustrating calculation of optical flow, and (a) shows an example of an input image, (b
) shows an example of the optical flow calculation result.

先ず、第3図によって、従来のラベル付け処理を説明す
る。該ラベル付け処理の概念については、例えば、[“
画像処理アルゴリズムの最新動向”。
First, conventional labeling processing will be explained with reference to FIG. Regarding the concept of the labeling process, for example, [“
Latest trends in image processing algorithms”.

Oplus E、別冊、(株)新技術]ミュニケーショ
ンズ刊」に詳しいが、以下に、その1例を示す。
Oplus E, separate issue, published by Shintechi Co., Ltd. Communications, provides details, but one example is shown below.

ビデオ、テレビカメラ等からの入力画像は、各画素毎、
にある濃度を持った濃淡画像である。
Input images from video cameras, TV cameras, etc. are
It is a grayscale image with a certain density.

この内の何フシーム分かの画像を示したものが(a)図
であって、この段階においては、背景と物体とは完全に
分離されていない。
Figure (a) shows an image of several frames of this image, and at this stage, the background and object are not completely separated.

この濃淡画像に対して、先ず、二値化処理を施す。該二
値化処理は、ある濃度以上の画素の値を1′とし、それ
以下の画素の値を°0゛にする処理のことであり、これ
によって、(b)図に示したように、背景と物体とを完
全に分離することができる。
This grayscale image is first subjected to binarization processing. The binarization process is a process in which the values of pixels with a certain density or higher are set to 1', and the values of pixels with a density lower than that are set to 0. The background and object can be completely separated.

該二硫化された画像に対して、上記濃度値゛1の繋がっ
ている画素をまとめて1つのラベルを付与するラベル付
け処理を施す。例えば、該画像をラベル付けを行うのに
必要なウィンドウで走査して、最初に付与されたラベル
を該走査方向に伝播させるようにしてラベル付けを行う
。該ラベルには数字を用いる。
The disulfurized image is subjected to a labeling process in which the connected pixels with the density value "1" are grouped together and given one label. For example, labeling is performed by scanning the image through a window necessary for labeling, and propagating the initially assigned label in the scanning direction. The label uses numbers.

該ラベル付けの処理は、各フレーム毎に行われるので、
(c)図に示したように、同じ物体に対して同じラベル
が付与されるとは限らない。
The labeling process is performed for each frame, so
(c) As shown in the figure, the same label is not necessarily given to the same object.

又、あるフレームで重なった物体に対しては、それまで
のフレームでは別々のラベルが付与されていても、該フ
レームでは1つのラベルが付与されるだけである。
Further, for objects that overlap in a certain frame, only one label is given in that frame even if different labels have been given in previous frames.

次に、第4図によって、本発明に関連するオプティカル
フローの算出処理を説明する。
Next, optical flow calculation processing related to the present invention will be explained with reference to FIG.

従来から計算機による物体認識の研究は盛んに行われて
いるが、現状のレベルは、未だ未だ十分とはいえない。
Research on object recognition using computers has been actively conducted for a long time, but the current level is still not sufficient.

然し、該物体認識処理の中で、最初の方に位置する、数
枚の′a淡両画像ら見掛けの速度場(オプティカルフロ
ーという)を算出する技術は満足するレベルにある。
However, in the object recognition process, the technology for calculating the apparent velocity field (referred to as optical flow) from several 'a-light images located at the beginning is at a satisfactory level.

該オプティカルフローの算出の詳細については、例えば
、「“視覚的な動きの測定”、ヒルドレスE。
For details on calculating the optical flow, see, for example, "Visual Movement Measurement", Hildreth E.

C0著、マサチューセッツ工科大学出版局、ケンブリッ
ジ、マス語列+1984.(”The Measure
ment ofVisual Motion”、l1i
ldreth、E、C,、旧T Press、Camb
ridge、Mass、、1984.) Jに示されて
いるが、要約すれば、(a)図に示した入力画像から、
各画素毎の明るさのフレーム毎の差分から見掛は上、ど
ちらに移動しているかを算出する技術であって、背景と
物体との分離等を行うことなく、唯、各画素における明
るさの変化に注目してオプティカルフローを算出するも
のである。
Author C0, Massachusetts Institute of Technology Press, Cambridge, Mass+1984. ("The Measure
ment of Visual Motion”, l1i
ldreth, E, C,, former T Press, Camb
Ridge, Mass, 1984. ) J, but to summarize, (a) from the input image shown in figure,
This is a technology that calculates which direction the object is apparently moving from the difference in the brightness of each pixel from frame to frame. Optical flow is calculated by focusing on changes in .

該オプティカルフローの算出結果は、各画素毎に、(V
x、Vy)等と成分表示されるべきものであるが、(b
)図の例(但し、(b)図では、特定の画素にしか示し
ていない)では、それを矢印で表現して入力画像と重ね
て示したものである。
The calculation result of the optical flow is (V
The components should be displayed as (x, Vy), etc., but (b
) In the example shown in the figure (however, in the figure (b), only specific pixels are shown), this is expressed by an arrow and shown superimposed on the input image.

このように、従来の動画像に対するラベル付け処理にお
いては、あるフレームにおいて、物体同士が重なってい
ると、1つのラベルが付与されてしまい、フレーム間で
の物体同士の対応をとることが完全にできないという問
題があった。
In this way, in conventional labeling processing for video images, if objects overlap in a certain frame, a single label is assigned, making it impossible to completely match objects between frames. The problem was that I couldn't do it.

又、各フレーム毎に、画素毎の動きを示すオプティカル
フローの算出技術は知られていたが、ラベル付け処理に
応用されている例はなかった。
Furthermore, although a technique for calculating optical flow, which indicates the movement of each pixel for each frame, has been known, there has been no example of this technique being applied to labeling processing.

本発明は上記従来の欠点に鑑み、動画像に対してラベル
付けを行う画像処理装置において、動画像の、あるフレ
ームで、ラベルを付与された物体同士が重なっている場
合においても、それらに対して別々のラベルを付与し、
フレーム間での物体同士の対応をとることを、より確実
に行うことができ、る画像処理装置を提供することを目
的とするものである。
In view of the above-mentioned conventional drawbacks, the present invention provides an image processing device that labels moving images, even when labeled objects overlap in a certain frame of the moving image. and give them separate labels.
It is an object of the present invention to provide an image processing device that can more reliably match objects between frames.

〔課題を解決するための手段〕[Means to solve the problem]

第1図は本発明の原理説明図であり、(a)は装置構成
の例を示し、(bl) 、 (b2)は1つのラベルに
対するオプティカルフローの2次元ヒストグラムの例を
示し、(d) 、 (C2)は対応付けを行う画像例を
示し、(dl) 、 (d2)はオプティカルフローの
ヒストグラムのピーク抽出例を示し、(el) 、 (
C2)はラベル毎の重心の位置の算出例を示し、(「)
は評価関数Eを最大にする対応付けの例を示している。
FIG. 1 is a diagram explaining the principle of the present invention, in which (a) shows an example of the device configuration, (bl) and (b2) show an example of a two-dimensional histogram of optical flow for one label, and (d) shows an example of a two-dimensional histogram of optical flow for one label. , (C2) shows an example of an image to be correlated, (dl), (d2) shows an example of peak extraction of an optical flow histogram, and (el), (
C2) shows an example of calculating the position of the center of gravity for each label.
shows an example of a correspondence that maximizes the evaluation function E.

上記の問題点は下記の如(に構成された動画像における
ラベル付け装置によって解決される。
The above problems are solved by a moving image labeling apparatus configured as follows.

(1)動画像においてラベル付けを行う装置であって、 該動画像のフレーム毎に、暫定的なラベルを付与する装
置1と、 該動画像のフレーム毎のオプティカルフローを算出する
装置2と、 上記動画像のフレーム毎に付与されたラベル毎にオプテ
ィカルフローのヒストグラムを算出する装置3と、 該算出されたヒストグラムのピークの候補を算出する装
置4と、 該ラベル毎の平均的な位置を算出する装置5と、1つ前
のフレームに対する上記各処理結果を記憶する装置6と
、 上記1つ前のフレームに対する上記各処理結果と現フレ
ームの上記平均的な位置、ピークの候補とから、上記1
つ前のフレームと現フレームのラベルの対応付けを行う
装置7と、 上記対応結果から正しいラベル画像を算出する装置8と
からなる。
(1) A device for labeling a moving image, comprising: a device 1 that assigns a temporary label to each frame of the moving image; a device 2 that calculates an optical flow for each frame of the moving image; A device 3 that calculates an optical flow histogram for each label assigned to each frame of the moving image; a device 4 that calculates peak candidates of the calculated histogram; and a device 4 that calculates an average position for each label. a device 5 for storing the processing results for the previous frame, and a device 6 for storing the processing results for the previous frame and the average position and peak candidate of the current frame. 1
It consists of a device 7 that correlates the labels of the previous frame and the current frame, and a device 8 that calculates a correct label image from the above correspondence result.

(2)上記算出されたヒストグラムのピークの候補を算
出する装置4は、候補の確信度を出力するように構成す
る。
(2) The device 4 that calculates the peak candidates of the calculated histogram is configured to output the reliability of the candidates.

〔作用〕[Effect]

即ち、本発明は、動画像の各フレームの画素毎に算出し
たオプティカルフローが、本来、物体同士で異なること
に着目して、あるフレームの動画像にラベル付けしたラ
ベル画像と、そのフレームのオプティカルフローを基に
して、その各ラベル毎に、オプティカルフローの2次元
ヒストグラムを算出し、そのヒストグラムのピークと、
各ラベルの平均的な位置を表す量、例えば、重心と、1
つ前のフレームの上記の処理結果とを比較することによ
って、あるフレームで物体同士が重なっている場合にお
いても、それぞれの物体に、本来のラベルを付与するこ
とを可能にしたものである。
That is, the present invention focuses on the fact that the optical flow calculated for each pixel of each frame of a moving image is originally different between objects, and uses a label image that labels a moving image of a certain frame and an optical flow of that frame. Based on the flow, a two-dimensional histogram of the optical flow is calculated for each label, and the peak of the histogram is
A quantity representing the average position of each label, for example, the center of gravity and 1
By comparing the above processing results for the previous frame, it is possible to assign original labels to each object even when objects overlap in a certain frame.

従って、本発明の画像処理装置は、第1図(a)図°に
示した構成をとる。
Therefore, the image processing apparatus of the present invention has the configuration shown in FIG. 1(a).

先ず、オプティカルフロー算出装置2で算出したオプテ
ィカルフローと、ラベル付け装置1で付与したラベルを
基に、ヒストグラム算出装置3で、各ラベ、ル毎に、オ
プティカルフローの2次元ヒストグラムを算出する。(
bl)図は、ラベル毎に算出されたオプティカルフロー
であり、(b2)図は、その2次元ヒストグラムの算出
例であり、この2次元ヒストグラムから、(bl)図に
示したように重なっている2つの物体を、3g(b2)
図の2次元ヒストグラムでは「2つの物体であるJと認
識することができることが判る。本発明はこの点に着目
してなされたものである。
First, based on the optical flow calculated by the optical flow calculation device 2 and the label assigned by the labeling device 1, the histogram calculation device 3 calculates a two-dimensional histogram of the optical flow for each label. (
Figure (bl) shows the optical flow calculated for each label, and Figure (b2) is an example of calculating its two-dimensional histogram.From this two-dimensional histogram, the optical flow is calculated as shown in Figure (bl). Two objects, 3g (b2)
In the two-dimensional histogram shown in the figure, it can be seen that two objects J can be recognized.The present invention was made with attention to this point.

然し、該オプティカルフローのヒストグラムは通常、あ
いまいなピークを持つ(特に、2つの物体が重なってい
る部分の画素に対して)為、このピーク情報だけでは精
度が不十分である。
However, since the optical flow histogram usually has ambiguous peaks (particularly for pixels in a portion where two objects overlap), this peak information alone is insufficient in accuracy.

通常、ピーク探索で得られる結果は、絶対に正しいとは
いえない候補に過ぎない。その形式は、例えば、以下の
ようになる。
Usually, the results obtained by peak search are only candidates that cannot be said to be absolutely correct. For example, the format is as follows.

候補1 : (Vx、Vy)、正しいピークである確信
度は0.8゜ 候補2 : (Vx、VyL正しいピークである確信度
は0.6゜ 上記の確信度は、例えば、オプティカルフローの2次元
ヒストグラムにおいて、最も、高いピク (画素数)の
確信度を、例えば、1.0° として、その他のピーク
の確信度を、それぞれの画素数の比に応じて決定するこ
とで得ることができる。
Candidate 1: (Vx, Vy), the confidence that the peak is correct is 0.8° Candidate 2: (Vx, VyL, the confidence that the peak is correct is 0.6°) The above confidence is, for example, 2 of the optical flow. In the dimensional histogram, the confidence level of the highest pix (pixel number) can be set to 1.0°, for example, and the confidence levels of other peaks can be obtained by determining the confidence level of the other peaks according to the ratio of the respective pixel numbers. .

そして、本発明では、時間的に、前のフレームの処理結
果と、上述したラベル毎の候補の列(候補1.候補2.
〜)とを比較して、最も一致するように対応付けを行う
In the present invention, temporally, the processing result of the previous frame and the above-mentioned column of candidates for each label (candidate 1, candidate 2, . . .
~) and make the most consistent correspondence.

この際、適当な評価関数を定義して、その値を最大にす
るような対応付けを探索するという形式に定式化する。
At this time, it is formulated in such a way that an appropriate evaluation function is defined and a correspondence that maximizes its value is searched for.

第1図(cl) 、 (c2)図は対応付けのサンプル
画像であり、(cl)は1つ前のフレームを示し、(c
2)は今のフレームを示している。
Figures 1 (cl) and (c2) are sample images for mapping, where (cl) shows the previous frame and (c
2) shows the current frame.

本図の各ラベル毎に、オプティカルフローの2次元ヒス
トグラムを求め、そのピークを算出した結果が(di)
 、 (d2)図((d) 、 (c2)図対応)であ
る。
A two-dimensional histogram of optical flow is obtained for each label in this figure, and the result of calculating the peak is (di)
, (d2) (corresponding to figures (d) and (c2)).

又、該ラベル毎の重心の位置も比較の為に用いる。但し
、前のフレームに対しては、移動弁を該重心に加えて、
今のフレームでの予想重心位置にする。この結果を、本
図(el) 、 (e2) ((cl) 、 (c2)
図対応)に示す。
Furthermore, the position of the center of gravity for each label is also used for comparison. However, for the previous frame, add a moving valve to the center of gravity,
Set the expected center of gravity position in the current frame. This result is shown in this figure (el), (e2) ((cl), (c2)
(corresponding figure).

本発明においては、これらのデータから、前のフレーム
との対応付けを行い、前述のピークの候補列から、最も
、妥当なものを確定させる。
In the present invention, these data are correlated with the previous frame, and the most appropriate one is determined from the aforementioned peak candidate sequence.

その為に、よく一致する程、例えば、大きい値をとるよ
うな、以下の評価関数Eを定義する。
For this purpose, the following evaluation function E is defined, which takes a larger value as the match is better.

E=Σ f(x)* g(y) * pここで、f (
x)内のXは、iとjのピーク座標の差 g<y>内のyは、iが属するラベルとjが属するラベ
ルの重心位置の差。
E=Σ f(x) * g(y) * p where f (
x) is the difference between the peak coordinates of i and j; y in g<y> is the difference between the centroid positions of the label to which i belongs and the label to which j belongs.

pはjの確信度 iは前のフレームでのピークに振っ た通し番号 jは今のフレームでのピークに振っ た通し番号。p is the confidence of j i is the peak in the previous frame. serial number j is the peak in the current frame. serial number.

である。It is.

そして、該f (x) 、 g (y)は、小さい入力
程、大きい値を出力する関数、例えば、l/ (1+x
) 、 l/ (1+y)とする。
The f (x) and g (y) are functions that output a larger value as the input becomes smaller, for example, l/ (1+x
), l/(1+y).

即ち、該g (y)の例では、上記前のフレームでのピ
ークに振った通し番号iに属する重心位置の、次のフレ
ームでの予想値との差としているので、その差が小さい
程太き(なるような上記関数で、該評価関数Eを最大に
する対応付けを行うことで、フレーム間で同じ物体を探
索することができる。
That is, in the example of g (y), it is the difference between the expected value in the next frame of the center of gravity position belonging to the serial number i assigned to the peak in the previous frame, so the smaller the difference, the thicker the (The same object can be searched between frames by making a correspondence that maximizes the evaluation function E using the above function.

この評価関数Eを最大にする対応付けを、上記(cl)
 、 (c2)図に対して求めると、上記ピーク座標(
di) 、 (d2)と、重心位置(el) 、 (e
2)とから、(f)図に示すものとなる。
The correspondence that maximizes this evaluation function E is determined by the above (cl)
, (c2), the above peak coordinates (
di), (d2) and the center of gravity position (el), (e
2), we get what is shown in figure (f).

このとき、該評価関数Eの値は、 E = f (0) *g (0)本0.9(ラベルl
とラベル2)+f(0)*g(1)*0.9  (ラベ
ル2とラベル1のピク(0,1))+ f(0)*g (2)本0.9(ラベル2とラベル1の
ピーク(1,0) ) =0.9+0.45+0.37 =1.72である。他
の対応をとると、上記f (x) 、 g (y)の値
が小さくなっ”ζ、該評価関数Eの値は上記より必ず小
さくなる。
At this time, the value of the evaluation function E is E = f (0) * g (0) 0.9 (label l
and label 2) + f (0) * g (1) * 0.9 (pic (0, 1) of label 2 and label 1) + f (0) * g (2) Book 0.9 (label 2 and label 1 peak (1,0) = 0.9 + 0.45 + 0.37 = 1.72. If other measures are taken, the values of f (x) and g (y) become smaller ζ, and the value of the evaluation function E is always smaller than the above value.

このように、対応付けを、該評価関数Eを最大にすると
いう形式で行うことにより、動的計画法(ダイナミック
プログラミング、以下、OPという)を用いることがで
き、該評価処理、即ち、最大値を与える対応付け処理を
、極めて、高速に行うことができる。
In this way, by performing the correspondence in a format that maximizes the evaluation function E, dynamic programming (hereinafter referred to as OP) can be used, and the evaluation process, that is, the maximum value The mapping process that gives

該対応付けが求まったならば、今のフレームのピークに
対して、前のフレームのラベルを付与することができ、
これにより、物体が重なっている場合でも、それらに、
別々のラベルを付与することができる。又、前のフレー
ムのラベルとの対応も取れるので、該ラベルを持つ物体
を追跡することもできる効果がある。
Once the correspondence is determined, the label of the previous frame can be assigned to the peak of the current frame,
This allows even if objects overlap,
Separate labels can be given. Furthermore, since correspondence can be established with the label of the previous frame, it is also possible to track an object having the label.

〔実施例〕〔Example〕

以下本発明の実施例を図面によって詳述する。 Embodiments of the present invention will be described in detail below with reference to the drawings.

前述の第1図は本発明の原理説明図であり、第2図は本
発明の一実施例を示した図であって、(a)は装置の構
成例を模式的に示した図であり、(b)はlフレームに
対する処理フローの例を示し、(cl) 、 (c2)
は入力画像の例を示し、(di)〜(d6)は各処理途
上での各テーブルの構成例を示し、(e)は出力ラベル
画像の例を示しており、ラベル毎のオプティカルフロー
の2次元ヒストグラムのピクの候補を算出する装置1,
2.3.4と、各ラベルのフレーム毎の平均的な位置、
例えば、重心位置を算出する装置1.5からのデータと
に基づいて、フレーム間のラベルの対応付けを行う装置
6,7.8が本発明を実施するのに必要な手段である。
The above-mentioned FIG. 1 is a diagram explaining the principle of the present invention, and FIG. 2 is a diagram showing an embodiment of the present invention, and (a) is a diagram schematically showing an example of the configuration of the device. , (b) shows an example of the processing flow for l frame, (cl), (c2)
shows an example of an input image, (di) to (d6) show an example of the configuration of each table in the middle of each processing, and (e) shows an example of an output label image. Apparatus 1 for calculating pix candidates of a dimensional histogram;
2.3.4 and the average position of each label per frame,
For example, devices 6 and 7.8 for associating labels between frames based on the data from the device 1.5 for calculating the center of gravity position are necessary means for carrying out the present invention.

尚、全図を通して同じ符号は同じ対象物を示している。Note that the same reference numerals indicate the same objects throughout the figures.

以下、第1図を参照しながら、第2図によって本発明の
動画像におけるラベル付け装置の構成と動作を説明する
The configuration and operation of the moving image labeling apparatus of the present invention will be described below with reference to FIG. 1 and FIG. 2.

本発明を実施しても、動画像の各フレームの濃淡画像に
対するラベル付け処理、少なくとも、2枚の濃淡画像か
ら画素毎のオプティカルフローを算出する処理、該オプ
ティカルフロー算出結果から、各ラベル毎の2次元ヒス
トグラムを算出する処理、該2次元ヒストグラムから画
素数の最大値、即ち、ピークを求める処理、更に、各ラ
ベルの平均的な位置、例えば、重心位置を求める処理は
、従来方式と特に変わることはないので、詳細は省略し
、ここでは、上記の各技術を用いて、動画像の濃淡画像
に対してラベル付けを行い、該ラベル毎のオプティカル
フローの2次元ヒストグラムから算出したピークの候補
列と、各ラベルのフレム毎の平均的な位置、例えば、上
記重心位置を算出したデータとに基づいて、フレーム間
のラベルの対応付けを行う手段を中心にして、本発明の
動画像のおけるラベル付け装置を、ある1フレームに対
する処理を基に説明する。
Even if the present invention is implemented, the labeling process for the grayscale image of each frame of a moving image, the process of calculating the optical flow for each pixel from at least two grayscale images, and the process of calculating the optical flow for each pixel from the optical flow calculation result, the labeling process for each label. The process of calculating a two-dimensional histogram, the process of finding the maximum value of the number of pixels, that is, the peak, from the two-dimensional histogram, and the process of finding the average position of each label, for example, the center of gravity, are particularly different from the conventional method. The details are omitted here because the above techniques are used to label the grayscale images of moving images, and the peak candidates calculated from the two-dimensional histogram of optical flow for each label are The present invention focuses on a means for associating labels between frames based on columns and the average position of each label for each frame, for example, data on which the center of gravity position is calculated. The labeling device will be explained based on processing for one frame.

先ず、(a)図において、図示されていないテレビカメ
ラ等からの入力画像は、ラベル付け装置lによって、該
画像中の各物体毎に、ラベルが付与される。
First, in Figure (a), an input image from a television camera or the like (not shown) is labeled by a labeling device 1 for each object in the image.

この時のラベルは暫定的なもので、前述のように、重な
っている物体には、1つのラベルが付与されるだけであ
る。該ラベル付け装置1の出力結果は、ラベル画像とし
て同装置1内に蓄えられる。
The label at this time is temporary, and as described above, only one label is given to overlapping objects. The output result of the labeling device 1 is stored in the device 1 as a label image.

一方、上記ラベル付け処理と並行して、オプティカルフ
ロー算出装置2が、例えば、2フレーム(前のフレーム
と今のフレーム)の入力画像を基に、各画素のオプティ
カルフローを算出し、その算出結果は、速度ベクトルの
X成分、X成分からなる2枚の画像であり、同装置2内
に蓄えられる。
Meanwhile, in parallel with the above labeling process, the optical flow calculation device 2 calculates the optical flow of each pixel based on the input image of two frames (previous frame and current frame), and the calculation result is are two images consisting of the X component and the X component of the velocity vector, and are stored in the device 2.

((b) 、 (cl) 、 (c2)図参照)次に、
ヒストグラム算出装置3が、各ラベル毎に、上記算出さ
れたオプティカルフローの2次元ヒストグラムを算出す
る。該算出結果は、同装置3内のワーク領域に、2次元
配列(添字が速度成分で、値が、その個数)として蓄え
られる。(第1図(b2) 、及び、第2図(b) 、
 (di)参照)上記ワーク領域に蓄えられたヒストグ
ラムに対して、ピーク算出装置4が該2次元ヒストグラ
ムのピークの候補を算出し、その結果(候補列)は、該
ピークの候補の座標(速度成分)と、その確信度(P)
で、例えば、(d2)図に示した形式で、ラベル毎に同
装置4内に蓄えられる。
(See figures (b), (cl), (c2)) Next,
The histogram calculation device 3 calculates a two-dimensional histogram of the calculated optical flow for each label. The calculation results are stored in the work area of the device 3 as a two-dimensional array (the subscript is the velocity component and the value is the number). (Figure 1 (b2) and Figure 2 (b),
(di)) The peak calculation device 4 calculates peak candidates of the two-dimensional histogram for the histogram stored in the work area, and the result (candidate sequence) is the coordinates (velocity) of the peak candidate. component) and its confidence level (P)
For example, each label is stored in the device 4 in the format shown in FIG. 4(d2).

一ヒ記の確信度は、前述のように、例えば、最も高い(
個数の多い)ピークの確信度を°0.9”とし、その他
のピークの確信度は、それぞれの高さ(個数)の比に応
じて決定する。
As mentioned above, for example, the confidence level of
The confidence level of the peak (with a large number of peaks) is set to 0.9'', and the confidence level of other peaks is determined according to the ratio of their respective heights (numbers).

上記の処理と並行して、重心算出装置5が、各ラベル毎
の平均的な位置を表す量、例えば、重心位置を算出し、
該算出結果は同装置5内に、ラベル毎に格納する。((
b) 、 (d3)図参照)本実施例では、上記の如く
、各ラベル毎の平均的な位置を表す量として、重心を算
出する例で説明しているが、これに、限定されるもので
はなく、外心、重心等であってもよいことはいう迄もな
いことである。
In parallel with the above processing, the center of gravity calculation device 5 calculates a quantity representing the average position of each label, for example, the center of gravity position,
The calculation results are stored in the device 5 for each label. ((
b), (d3)) In this embodiment, as described above, the center of gravity is calculated as a quantity representing the average position of each label, but the present invention is not limited to this. It goes without saying that it may be the circumcenter, center of gravity, etc. instead.

該処理対象フレーム内の全てのラベルに対して、ピーク
の候補列が求められたならば、フレーム間対応装置7が
、処理結果記憶装置6から、1つ前のフレームの重心位
置と、オプティカルフローとを読み出しく (d4)図
参照)、上記の各格納場所からは、今のフレームの重心
位置と オプティカルフローとを3売み出して、最も一
致するように、各フレームのラベル間の対応付けを行う
Once peak candidate sequences have been found for all labels in the processing target frame, the interframe correspondence device 7 retrieves the barycenter position of the previous frame and the optical flow from the processing result storage device 6. (see figure d4)), from each of the above storage locations, the center of gravity position and optical flow of the current frame are retrieved, and the correspondence between the labels of each frame is determined so as to best match. I do.

この際に、前のフレームの重心位置には、オプティカル
フローから求まる移動量を加算して、今のフレームでの
予想重心位置に変換してから、該対応付けを行う。
At this time, the movement amount determined from the optical flow is added to the center of gravity position of the previous frame to convert it into the expected center of gravity position of the current frame, and then the association is performed.

該対応付けは、前述のように、よく一致する程、大きな
値をとる適当な評価関数Eの値を最大にする対応付けを
探索するという方式で行う。
As described above, this mapping is performed by searching for a mapping that maximizes the value of an appropriate evaluation function E, which takes a larger value as the match is better.

該評価関数Eは、前述のように、例えば、E=Σ f(
x) * g(y)  * pここで、f (x)内の
Xは、iとjのピーク座標の差 g (V)内のyは、iが属するラベルとjが属するラ
ベルの重心位置の差。
As mentioned above, the evaluation function E is, for example, E=Σ f(
x) * g(y) * p Here, X in f (x) is the difference between the peak coordinates of i and j, and y in (V) is the centroid position of the label to which i belongs and the label to which j belongs. The difference.

pはjの確信度 iは前のフレームでのピークに振っ た通し番号。p is the confidence of j i is the peak in the previous frame. serial number.

jは今のフレームでのピークに振っ た通し番号。j is the peak in the current frame. serial number.

である。It is.

このように、複数個の候補から、例えば、最も大きな値
をとるものを選択するという評価をすることにより、動
的計画法(叶)を用いることができ、極めて裔速に、フ
レーム間のラベルの対応付けを行うことができる。
In this way, dynamic programming can be used by evaluating, for example, selecting the one that takes the largest value from multiple candidates, and the label between frames can be very quickly calculated. can be mapped.

このようにして、最も一致する対応付けが得られたなら
ば、同装置7内のワーク領域に対応テブルとして出力す
る。((b) 、 (cl) 、 (c2) 、 (d
5)図参照) 最後に、テーブル更新装置8が、上記対応テブルを参照
して、処理結果記憶装置6の内容を更新する。(d6)
図参照)又、上記ラベル付け装置1において、暫定的に
付与しておいたラベル画像から、本対応テーブルを基に
、正しいラベル画像を算出して、本動画像におけるラベ
ル付け装置の出力とする。((b) 、 (e)図参照
)このように、本発明は、動画像に対してラベル付けを
行う画像処理装置において、該動画像の各フレームの画
素毎に算出したオプティカルフロが、本来、物体同士で
異なることに着目して、あるフレームの動画像にラベル
付けしたラベル画像と、オプティカルフローを基にして
、その各ラベル毎に、オプティカルフローの2次元ヒス
トグラムを算出し、そのヒストグラムのピークの候補と
In this way, if the most consistent correspondence is obtained, it is output to the work area in the device 7 as a correspondence table. ((b), (cl), (c2), (d
5) See figure) Finally, the table updating device 8 updates the contents of the processing result storage device 6 by referring to the corresponding table. (d6)
(See figure) Also, the labeling device 1 calculates the correct label image from the temporarily assigned label image based on the main correspondence table, and outputs the correct label image as the output of the labeling device in the main moving image. . (See figures (b) and (e)) As described above, the present invention provides an image processing device that labels a moving image, in which the optical flow calculated for each pixel of each frame of the moving image is Focusing on the differences between objects, we calculate a two-dimensional histogram of optical flow for each label based on the label image labeled on a video image of a certain frame and the optical flow. with peak candidates.

各ラベルの平均的な位置を表す量、例えば、重心とにつ
いて、1つ前のフレームの上記の処理結果と、今のフレ
ームの処理結果とを、対応付けがよい程、大きな値をと
る評価関数Eを用い才比較することで、あるフレームで
物体同士が重なっている場合においても、それぞれの物
体に、本来のラベルを高速に付与することを可能にした
所に特徴がある。
An evaluation function that takes a larger value as the correspondence between the above processing result of the previous frame and the processing result of the current frame is better for a quantity representing the average position of each label, for example, the center of gravity. The feature of this method is that by comparing the use of E, it is possible to quickly attach the original label to each object even when the objects overlap in a certain frame.

〔発明の効果〕〔Effect of the invention〕

以上、詳細に説明したように、本発明の動画像における
ラベル付け装置は、動画像のフレーム毎に、暫定的なラ
ベルを付与する装置と、該動画像のフレーム毎のオプテ
ィカルフローを算出する装置と、上記動画像のフレーム
毎に付与されたラベル毎にオプティカルフローのヒスト
グラムを算出する装置と、該算出されたヒストグラムの
ピークの候補を算出する装置と、該ラベル毎の平均的な
位置を算出する装置と、1つ前のフレームに対する上記
各処理結果を記憶する装置と、上記1つ前のフレームに
対する上記各処理結果と現フレームの上記平均的な位置
、ピークの候補とから、上記1つ前のフレームと現フレ
ームのラベルの対応付けを行う装置と、上記対応結果か
ら正しいラベル画像を算出する装置とから構成したもの
であるので、動画像において、物体同士が重なっている
場合においても、それらに、別々のラベルを付与するこ
とができる。又、前のフレームでの各ラベルとの対応が
取れるので、該ラベルに対応した物体の追跡を行うこと
ができる効果がある。
As described above in detail, the moving image labeling device of the present invention includes a device that assigns a temporary label to each frame of a moving image, and a device that calculates an optical flow for each frame of the moving image. , a device that calculates an optical flow histogram for each label assigned to each frame of the video image, a device that calculates peak candidates of the calculated histogram, and a device that calculates the average position of each label. a device for storing each of the processing results for the previous frame; and a device for storing the processing results for the previous frame, and the above-mentioned one from the processing results for the previous frame and the average position and peak candidate of the current frame. It consists of a device that correlates the labels of the previous frame and the current frame, and a device that calculates the correct label image from the above correspondence result, so even when objects overlap in a moving image, They can be given separate labels. Furthermore, since correspondence can be established with each label in the previous frame, it is possible to track the object corresponding to the label.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理説明図。 第2図は本発明の一実施例を示した図 第3図は従来の動画像におけるラベル付け処理を説明す
る図。 第4図はオプティカルフローの算出を説明する図である
。 図面において、 ■はラベル付け装置。 2はオプティカルフロー算出装置。 3はヒストグラム算出装置。 4はピーク算出装置。 5は重心算出装置、又は、 6は処理結果記憶装置、7 8はテーブル更新装置。 をそれぞれ示す。 平均位置算出装置。 はフレーム間対応装置 (a) Y 、画素数 (cl) (c2) 本発明の原理説明圀 第1図(その1) (dl) (el) 第1図(その2) (d2) (e2) 第 図 (その1) (cl)前のフレーム (c2)今のフレーム 第 図 (その3) (d5) (d6) 第 圓 (その4)
FIG. 1 is a diagram explaining the principle of the present invention. FIG. 2 shows an embodiment of the present invention. FIG. 3 is a diagram illustrating conventional labeling processing for moving images. FIG. 4 is a diagram illustrating calculation of optical flow. In the drawing, ■ is a labeling device. 2 is an optical flow calculation device. 3 is a histogram calculation device. 4 is a peak calculation device. 5 is a center of gravity calculation device, 6 is a processing result storage device, and 7 8 is a table update device. are shown respectively. Average position calculation device. is the inter-frame correspondence device (a) Y, number of pixels (cl) (c2) Figure 1 (Part 1) (dl) (el) Figure 1 (Part 2) (d2) (e2) Diagram (Part 1) (cl) Previous frame (c2) Current frame Diagram (Part 3) (d5) (d6) Round (Part 4)

Claims (2)

【特許請求の範囲】[Claims] (1)動画像においてラベル付けを行う装置であって、 該動画像のフレーム毎に、暫定的なラベルを付与する装
置(1)と、 該動画像のフレーム毎のオプティカルフローを算出する
装置(2)と、 上記動画像のフレーム毎に付与されたラベル毎にオプテ
ィカルフローのヒストグラムを算出する装置(3)と、 該算出されたヒストグラムのピークの候補を算出する装
置(4)と、 該ラベル毎の平均的な位置を算出する装置(5)と、 1つ前のフレームに対する上記各処理結果を記憶する装
置(6)と、 上記1つ前のフレームに対する上記各処理結果と現フレ
ームの上記平均的な位置、ピークの候補とから、上記1
つ前のフレームと現フレームのラベルの対応付けを行う
装置(7)と、 上記対応結果から正しいラベル画像を算出する装置(8
)とからなることを特徴とする動画像におけるラベル付
け装置。
(1) A device for labeling a moving image, which includes a device (1) that assigns a temporary label to each frame of the moving image, and a device (1) that calculates the optical flow for each frame of the moving image. 2), a device (3) that calculates an optical flow histogram for each label given to each frame of the video image, a device (4) that calculates peak candidates of the calculated histogram, and the label. a device (5) for calculating the average position for each frame; a device (6) for storing the above processing results for the previous frame; and a device (6) for storing the processing results for the previous frame and the above processing results for the current frame. Based on the average position and peak candidates, the above 1.
A device (7) that correlates the labels of the previous frame and the current frame, and a device (8) that calculates a correct label image from the above correspondence result.
) A labeling device for moving images, characterized by comprising:
(2)上記算出されたヒストグラムのピークの候補を算
出する装置(4)は、候補の確信度を出力することを特
徴とする請求項1に記載の動画像におけるラベル付け装
置。
(2) The labeling device for a moving image according to claim 1, wherein the device (4) for calculating the peak candidate of the calculated histogram outputs a confidence level of the candidate.
JP1100866A 1989-04-20 1989-04-20 Labeling device for moving images Expired - Lifetime JP2697117B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1100866A JP2697117B2 (en) 1989-04-20 1989-04-20 Labeling device for moving images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1100866A JP2697117B2 (en) 1989-04-20 1989-04-20 Labeling device for moving images

Publications (2)

Publication Number Publication Date
JPH02278479A true JPH02278479A (en) 1990-11-14
JP2697117B2 JP2697117B2 (en) 1998-01-14

Family

ID=14285235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1100866A Expired - Lifetime JP2697117B2 (en) 1989-04-20 1989-04-20 Labeling device for moving images

Country Status (1)

Country Link
JP (1) JP2697117B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5969772A (en) * 1997-10-30 1999-10-19 Nec Corporation Detection of moving objects in video data by block matching to derive a region motion vector
JP2009093612A (en) * 2007-04-17 2009-04-30 Avago Technologies Ecbu Ip (Singapore) Pte Ltd System and method for labeling feature clusters in frames of image data for optical navigation

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5969772A (en) * 1997-10-30 1999-10-19 Nec Corporation Detection of moving objects in video data by block matching to derive a region motion vector
JP2009093612A (en) * 2007-04-17 2009-04-30 Avago Technologies Ecbu Ip (Singapore) Pte Ltd System and method for labeling feature clusters in frames of image data for optical navigation
US8094937B2 (en) 2007-04-17 2012-01-10 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. System and method for labeling feature clusters in frames of image data for optical navigation

Also Published As

Publication number Publication date
JP2697117B2 (en) 1998-01-14

Similar Documents

Publication Publication Date Title
US11393103B2 (en) Target tracking method, device, system and non-transitory computer readable medium
Roy et al. Deep learning based hand detection in cluttered environment using skin segmentation
US10685263B2 (en) System and method for object labeling
Li et al. Semi-direct monocular visual and visual-inertial SLAM with loop closure detection
Rafi et al. Self-supervised keypoint correspondences for multi-person pose estimation and tracking in videos
JPH08327296A (en) Method and equipment for detecting target motion and applying method of said method
CN108364302B (en) Unmarked augmented reality multi-target registration tracking method
JP5371040B2 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
CN110705412A (en) Video target detection method based on motion history image
CN113312973A (en) Method and system for extracting features of gesture recognition key points
Bayraktar et al. Fast re-OBJ: Real-time object re-identification in rigid scenes
CN112861808B (en) Dynamic gesture recognition method, device, computer equipment and readable storage medium
CN114743270A (en) Specific action detection method for intelligent experiment evaluation
JP2019193019A (en) Work analysis device and work analysis method
Nguyen et al. A continuous real-time hand gesture recognition method based on skeleton
CN109785357A (en) A method of the robot automtion panorama photoelectronic reconnaissance suitable for battlefield surroundings
US20230394686A1 (en) Object Identification
US10728427B2 (en) Apparatus, systems and methods for nonlinear synchronization of action videos
Chan et al. Unseen salient object discovery for monocular robot vision
CN112085842B (en) Depth value determining method and device, electronic equipment and storage medium
Rutinowski et al. Semi-automated computer vision-based tracking of multiple industrial entities: a framework and dataset creation approach
JPH02278479A (en) Labelling device for moving image
Fernandez et al. Semi-automatic multi-object video annotation based on tracking, prediction and semantic segmentation
CN113822161B (en) Dynamic hand detection method and device for fusion of skin color and three-level background updating model
CN105760854A (en) Information processing method and electronic device