JP2002008042A - Action recognizing and processing device, and moving object action analyzing system - Google Patents

Action recognizing and processing device, and moving object action analyzing system

Info

Publication number
JP2002008042A
JP2002008042A JP2000187528A JP2000187528A JP2002008042A JP 2002008042 A JP2002008042 A JP 2002008042A JP 2000187528 A JP2000187528 A JP 2000187528A JP 2000187528 A JP2000187528 A JP 2000187528A JP 2002008042 A JP2002008042 A JP 2002008042A
Authority
JP
Japan
Prior art keywords
image
value
motion
moving
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000187528A
Other languages
Japanese (ja)
Other versions
JP3519672B2 (en
Inventor
Yoshiaki Usami
芳明 宇佐美
Masanori Miyoshi
雅則 三好
Kazuya Takahashi
一哉 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2000187528A priority Critical patent/JP3519672B2/en
Publication of JP2002008042A publication Critical patent/JP2002008042A/en
Application granted granted Critical
Publication of JP3519672B2 publication Critical patent/JP3519672B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve such a problem that it is hard to catch a moving object moving in a wide area with the sufficient resolution and it is hard to discriminate the degree of the action of the moving body. SOLUTION: A parameter input unit 2 inputs the control parameter for changing the range of a specified area and a concentration value in an image at a predetermined rate, and a diffusion computing unit 3 separates the moving image of the moving object into an object image and the background image, and assigns a predetermined concentration value to picture elements of an area in which the object image exists at a predetermined time, and changes the range of the described area and the concentration value with the lapse of time on the basis of the control parameter. An action recognizing unit 4 extracts the feature quantity from the distribution of the concentration value in a described area, and recognizes the action of the object on the basis of the collation of the feature quantity with a specified value.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は撮影した動画像によ
り移動体の動作を認識する技術であって、特に移動体の
行動を監視または分析する利用に好適な動作認識装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for recognizing a motion of a moving object from a captured moving image, and more particularly to a motion recognizing device suitable for use in monitoring or analyzing the behavior of the moving object.

【0002】[0002]

【従来の技術】画像で人物の動作を認識する従来技術と
しては、オプティカルフローによる方法が知られてい
る。これは特開平10−334270号に示されているように、
画像中の物体の移動による映像の変化を、光学的な流れ
としてみなし、流れを分析することにより動作を認識す
る手法である。
2. Description of the Related Art As a conventional technique for recognizing a motion of a person in an image, a method using an optical flow is known. This is, as shown in JP-A-10-334270,
In this method, a change in an image due to movement of an object in an image is regarded as an optical flow, and the flow is analyzed to recognize an action.

【0003】また、他の従来技術としては、M.I.T.Medi
a Laboratory Perceptual Computing Section Technica
l Report No.402に示されているように、物体のシルエ
ットを抽出し、これに時間変化に応じた濃度値を与え、
それを時間軸で積分することによりMotion History Ima
ge (MHI)と呼ばれる画像を生成し、このMHIのモーメン
ト特徴量などから物体の動作を分類する方法がある。
[0003] Another prior art is MIT Medi.
a Laboratory Perceptual Computing Section Technica
l As shown in Report No.402, extract the silhouette of the object, give it a density value according to time change,
Motion History Ima by integrating it on the time axis
There is a method of generating an image called ge (MHI) and classifying the motion of the object from the moment feature amount of the MHI.

【0004】[0004]

【発明が解決しようとする課題】しかし特開平10−3342
70号では、画像の濃度分布に着目した手法であるので、
その特徴が濃淡の明確なパターンとして存在していない
場合の処理が困難であった。特に広域を移動する人物を
対象とするような場合では、十分な解像度で人物像を捕
らえることが難しいので、明確な濃淡パターンは得にく
く、行動認識も難しかった。
SUMMARY OF THE INVENTION However, Japanese Patent Application Laid-Open No. 10-3342
No. 70 focuses on the density distribution of the image,
It is difficult to perform processing when the feature does not exist as a clear pattern of shading. In particular, in the case of targeting a person moving in a wide area, it is difficult to capture a person image with a sufficient resolution, so that it is difficult to obtain a clear shading pattern and it is also difficult to recognize actions.

【0005】また、シルエット画像を用い、人物の時間
的な形状変化の特徴から動作を分類する方法は、その動
作の程度を識別することができなかった。また、広域を
移動する移動体を対象とするような場合についての考慮
がない。
[0005] In addition, the method of classifying an action based on a feature of a temporal change in a person's shape using a silhouette image cannot identify the degree of the action. In addition, there is no consideration for a case where a moving object moving in a wide area is targeted.

【0006】本発明の目的は、従来技術の現状に鑑み、
広域を移動する移動体の動作を認識することである。ま
た、移動体の動作の程度も認識することである。
[0006] The object of the present invention, in view of the state of the prior art,
Recognition of the movement of a moving object moving in a wide area. It is also necessary to recognize the degree of movement of the moving object.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
めに、パラメータ入力部で、画像中の特定の領域の範囲
および濃度値を所定の割合で変化させるための制御パラ
メータを入力し、拡散計算部は、移動する物体の動画像
を物体像と背景像に分離し、所定の時刻に物体像が存在
する領域の画素に所定の濃度値を割り当て、上記制御パ
ラメータに基づいて、時間の経過と共に上記領域の範囲
と上記濃度値を変化させ、動作識別部は、上記領域にお
ける上記濃度値の分布から特徴量を抽出し、上記特徴量
と既定値との照合に基づき、上記物体の動作を認識す
る。
In order to achieve the above object, a parameter input unit inputs a control parameter for changing a range of a specific area in an image and a density value at a predetermined rate, and sets a parameter for diffusion. The calculation unit separates the moving image of the moving object into an object image and a background image, assigns a predetermined density value to a pixel in an area where the object image exists at a predetermined time, and calculates a time lapse based on the control parameter. Along with changing the range of the region and the density value, the motion identification unit extracts a feature amount from the distribution of the density value in the region, and performs the motion of the object based on the comparison between the feature amount and a predetermined value. recognize.

【0008】また、人物などの移動動作を撮影したビデ
オカメラからの動画像データから、移動する物体の移動
軌跡を求め、軌跡データとして出力する軌跡抽出処理部
と、上記動画像データから、個々の移動する物体の動作
を識別し、単独動作データとして出力する動作識別部
と、上記軌跡データから、集団としての行動を識別し、
集団動作データとして出力する行動分析処理部と、上記
単独動作データおよび上記集団動作データから、統計処
理および三次元グラフィックス処理を行って、統計デー
タおよびCG映像データを出力する表示処理部とを備
え、移動物体の動作を分析する。
Also, a trajectory extraction processing section for obtaining a trajectory of a moving object from moving image data from a video camera photographing the movement of a person or the like and outputting it as trajectory data; An action identification unit that identifies the action of a moving object and outputs it as single action data, and identifies the action as a group from the trajectory data,
A behavior analysis processing unit that outputs as group motion data; and a display processing unit that performs statistical processing and three-dimensional graphics processing from the single operation data and the group motion data to output statistical data and CG video data. Analyze the motion of a moving object.

【0009】[0009]

【発明の実施の形態】以下、本発明の実施の形態につい
て説明する。図1は本発明における動作の認識手法で、
セル状拡散モデルの説明図である。本発明では、人物の
動作により、周辺の流体に拡散現象が生じるものとし、
その状況をセル状に離散化したモデルで解析するので、
この動作認識手法をセル状拡散モデルと呼ぶ。また、認
識すべき動作の種類は多様であるが、ここでは「歩いて
いる」や「走っている」といった移動動作の識別を対象
とする。
Embodiments of the present invention will be described below. FIG. 1 shows an operation recognition method according to the present invention.
It is explanatory drawing of a cellular diffusion model. In the present invention, by the action of the person, a diffusion phenomenon occurs in the surrounding fluid,
Since the situation is analyzed using a model that is discretized into cells,
This motion recognition technique is called a cellular diffusion model. In addition, although there are various types of motions to be recognized, in this example, identification of a moving motion such as “walking” or “running” is targeted.

【0010】図1(a)は、ビデオカメラなどで撮影し
た移動する人物の画像である。同図では4×4画素しか
示していないが、これは画像中で人物の存在する付近の
一部分である。ここで、その人物は丁度、一画素の大き
さで撮影されており、時刻t0の時点で図のような位置に
人物像があるものとする。本発明では人物像の濃淡パタ
ーンの情報は利用しないので、人物像は人物のシルエッ
トがわかる二値画像で良い。
FIG. 1A is an image of a moving person photographed by a video camera or the like. Although only 4 × 4 pixels are shown in the figure, this is a part of the vicinity of the person in the image. Here, it is assumed that the person has just been photographed with a size of one pixel, and that there is a person image at a position as shown in the figure at time t0. In the present invention, since the information of the grayscale pattern of the human image is not used, the human image may be a binary image in which the silhouette of the human can be seen.

【0011】(b)は時刻t1における人物像を示したも
ので、(a)と比較すると、人物像は一画素右の位置に
移動している。(c)はt1におけるセル状拡散モデルの
圧力状態を示したものである。このモデルでは、画像の
人物像以外の背景像の部分は、ある流体で満たされてい
るものと考える。いま人物はセルAの位置から、セルB
の位置に移動しているが、このモデルではセルAで人物
は消滅し、セルBで人物が出現したものとして考える。
このとき、セルAでは存在していた人物の消滅すること
により負圧が生じ、拡散現象により流体が流入しようと
する。同様に、セルBでは人物の出現により正圧が生
じ、拡散のために流体が流出しようとする。また変化の
ない部分は圧力は0である。
FIG. 2B shows a human image at time t1. Compared with FIG. 2A, the human image has moved to the right by one pixel. (C) shows the pressure state of the cellular diffusion model at t1. In this model, the portion of the background image other than the human image in the image is considered to be filled with a certain fluid. Now, from the position of cell A, the person is cell B
In this model, it is assumed that a person has disappeared in cell A and a person has appeared in cell B.
At this time, in the cell A, a negative pressure is generated by the disappearance of the existing person, and the fluid tends to flow in due to the diffusion phenomenon. Similarly, in cell B, the appearance of a person creates a positive pressure, and fluid tends to flow out due to diffusion. The pressure is 0 at the portion where there is no change.

【0012】このとき(d)のようにセル内に流体の圧
力差が生じることとなり、ここではセルAのような人物
の消滅部分を低圧部、セルBのような人物の出現部分を
高圧部を呼ぶことにする。この図で右下がりのハッチン
グ部は低圧部を、右上がりのハッチング部は高圧部を示
し、ハッチング線が太いほど周囲との圧力差が大きいこ
とを意味している。またハッチングのない部分は圧力は
0である。
At this time, a pressure difference of the fluid is generated in the cell as shown in (d). In this case, the disappeared portion of the person such as the cell A is the low pressure portion, and the appearance portion of the person such as the cell B is the high pressure portion. Will be called. In this figure, the hatched portion on the lower right indicates the low-pressure portion, and the hatched portion on the upper right indicates the high-pressure portion. The thicker the hatched line, the larger the pressure difference from the surroundings. The pressure is zero in the part without hatching.

【0013】(e)は時刻t2における低圧部の拡散状況
を示すものである。低圧部では拡散により流体が流入す
ることで、周囲との圧力差は小さくなる(圧力は上昇)
が、低圧部の領域は広がることになる。
(E) shows the diffusion state of the low-pressure section at time t2. In the low-pressure part, the fluid flows in by diffusion, so the pressure difference with the surroundings becomes smaller (the pressure rises)
However, the area of the low-pressure section is expanded.

【0014】ハッチング部の圧力は(d)の圧力値に所
定の値を加えた値とし、それを画像の濃度値として画素
に格納する。また領域の広がりは画像処理の膨張演算を
適用して求める。膨張演算とは人物像を一画素分太める
処理で、入力画像Pの一画素をPijとし出力画像Qの一画
素をQijとし、人物像を1、背景像を0とすると、良く
知られているように、数1のように定義される。
The pressure of the hatched portion is a value obtained by adding a predetermined value to the pressure value of (d), and the value is stored in the pixel as the density value of the image. The spread of the area is obtained by applying the dilation calculation of the image processing. The dilation operation is a process of thickening a human image by one pixel. It is well known that one pixel of an input image P is Pij, one pixel of an output image Q is Qij, a human image is 1, and a background image is 0. Is defined as in Equation 1.

【0015】[0015]

【数1】Pijあるいはその8近傍の何れかが1の時: Qij
=1 その他の場合: Qij=0 この膨張演算は、パソコンに接続された画像処理ボード
のハードウエアにより実行できるので高速な処理が可能
である。
## EQU1 ## When Pij or any of its eight neighbors is 1: Qij
= 1 In other cases: Qij = 0 This expansion operation can be executed by hardware of an image processing board connected to a personal computer, so that high-speed processing is possible.

【0016】(f)は同様に高圧部の拡散状況を示す。
拡散により流体が流出するので、圧力は低下して、高圧
部の領域は広がる。ここでもハッチング部の圧力値は
(d)の圧力値から所定の値を減じた値とし、圧力値を
画素に格納する。また広がった領域も同様に膨張演算に
より求める。
(F) shows the diffusion state of the high pressure section in the same manner.
As the fluid flows out by diffusion, the pressure drops and the area of the high pressure section widens. Also in this case, the pressure value of the hatched portion is a value obtained by subtracting a predetermined value from the pressure value of (d), and the pressure value is stored in the pixel. The expanded area is similarly obtained by dilation calculation.

【0017】(g)は(e)の低圧部と、(f)の高圧
部を加算した結果で、これが時刻t2における最終的な圧
力分布となる。ここでは低圧部と高圧部で、圧力値の絶
対値は等しいものとしているので、両者が存在する領域
は加算により圧力値は0となっている。これら圧力値の
加算も圧力値を格納した濃度値の加算として、画像処理
ボードで実行する。
(G) is the result of adding the low pressure part of (e) and the high pressure part of (f), and this is the final pressure distribution at time t2. Here, since the absolute value of the pressure value is equal in the low-pressure section and the high-pressure section, the pressure value becomes zero by addition in the region where both are present. The addition of these pressure values is also executed by the image processing board as the addition of the density values storing the pressure values.

【0018】次に、図2により、セル状拡散モデルによ
る動作認識手法について説明する。ここでは時刻t0の人
物像が(a)、t1が(b)、t2が(c)およびt3が(d)の状態にあ
るものとし、人物は一画素ずつ右に移動している状況に
ある。
Next, referring to FIG. 2, an operation recognition method using a cellular diffusion model will be described. Here, it is assumed that the person image at time t0 is in the state of (a), t1 is in (b), t2 is in (c) and t3 is in (d), and the person is moving to the right by one pixel. .

【0019】まず、(a)から(b)への状態変化に伴う圧力
分布は、図1で示したように、時刻t1においては(e)の
ようになり、t2では(f)となり、さらに拡散してt3では
(g)となる。同様にして(b)から(c)の変化では、圧力分
布は時刻t2で(h)のようになり、t3では(i)となる。また
同様にして(c)から(d)の変化では、時刻t3で(j)のよう
になる。
First, as shown in FIG. 1, the pressure distribution accompanying the state change from (a) to (b) is as shown at (e) at time t1, becomes (f) at t2, and Spread out at t3
(g). Similarly, in the change from (b) to (c), the pressure distribution becomes (h) at time t2 and (i) at t3. Similarly, the change from (c) to (d) is as shown in (j) at time t3.

【0020】ここで時刻t0からt3までの状態の動作を解
析するためには、上記(e)から(j)までの圧力分布を各時
刻毎に加算をする。その結果として、(k)は(e)そのま
ま、(l)は(f)と(h)を加算したもの、(m)は(g)と(i)と
(j)を加算したものである。本発明の動作認識では、(k)
から(m)のような、各時刻における圧力分布のパターン
が持つ特徴を利用する。
Here, in order to analyze the operation in the state from time t0 to time t3, the pressure distributions from (e) to (j) are added for each time. As a result, (k) is (e) as is, (l) is the sum of (f) and (h), (m) is (g) and (i)
(j) is added. In the motion recognition of the present invention, (k)
(M) is used in the pressure distribution pattern at each time.

【0021】図3は、人物が移動した場合の圧力分布の
例を示す。ここで人物像は画像中の一部分に(a)のよう
な状態で撮影されており、この人物は画面の右手方向に
移動している状況にある。この人物像は画像中の人物の
シルエットである。
FIG. 3 shows an example of pressure distribution when a person moves. Here, the person image is photographed in a part of the image in a state as shown in FIG. 2A, and the person is moving in the right-hand direction on the screen. This person image is a silhouette of the person in the image.

【0022】圧力分布は図2で説明した手法により計算
し、その結果はたとえば(b)のような分布となる。そし
て正または負の圧力が存在している部分を抽出し、その
外接矩形を求める。複数の人物が存在する場合も考えら
れるので、その場合には外接矩形毎にラベル付けして区
別をする。圧力は濃度値として画像メモリに格納されて
いるので、画像処理ボードのラベリング演算を利用し
て、外接矩形やラベル付けした結果を得る。
The pressure distribution is calculated by the method described with reference to FIG. 2, and the result is, for example, a distribution as shown in FIG. Then, a portion where the positive or negative pressure exists is extracted, and its circumscribed rectangle is obtained. Since there may be a case where a plurality of persons exist, in such a case, a label is attached to each circumscribed rectangle to distinguish them. Since the pressure is stored as a density value in the image memory, a circumscribed rectangle or a labeled result is obtained using the labeling calculation of the image processing board.

【0023】(c)は外接矩形内の圧力分布に対して、X
軸方向の圧力投影値を求めたものである。圧力投影値と
は、個々のセルの圧力値を特定の軸方向に投影して加算
したもので、画像中のラベルを指定して、画像処理ボー
ドで投影演算することにより、値を求めることができ
る。
(C) shows the pressure distribution in the circumscribed rectangle as X
The axial pressure projection value is obtained. The pressure projection value is the value obtained by projecting and adding the pressure value of each cell in a specific axis direction, and specifying the label in the image and performing projection calculation on the image processing board to obtain the value. it can.

【0024】人物が移動する場合には、外接矩形内の移
動方向側(この場合は右側)に凸型で高い圧力投影値が発
生し、反移動方向側では凹型で低い圧力投影値が発生す
ることが、通常のパターンである。この圧力投影値のパ
ターンでマッチングをさせて人物の移動を認識する。
When the person moves, a convex high pressure projection value is generated on the side of the circumscribed rectangle in the moving direction (in this case, the right side), and a concave low pressure projection value is generated on the opposite moving direction side. That is the usual pattern. The movement of the person is recognized by matching with the pattern of the pressure projection value.

【0025】図4では移動認識を処理するために、パタ
ーンのマッチングにフーリエ解析を応用した手法につい
て述べる。(a)は圧力投影値の分布を示す図であり、こ
の分布を1次元信号として考え、この信号を離散フーリ
エ変換することにより振幅および位相スペクトルを求め
る。
FIG. 4 illustrates a method in which Fourier analysis is applied to pattern matching in order to process movement recognition. (a) is a diagram showing a distribution of pressure projection values. This distribution is considered as a one-dimensional signal, and an amplitude and a phase spectrum are obtained by performing a discrete Fourier transform on the signal.

【0026】いま離散化された一次元信号f(i)につい
て、i=0,1,2,..,N-1のN個のデータが存在するとすれ
ば、そのフーリエ係数Ckは、良く知られているよう
に、数2により表される(jは虚数単位)。
Assuming that there are N data of i = 0, 1, 2,..., N−1 in the discretized one-dimensional signal f (i), its Fourier coefficient Ck is well known. As shown, it is represented by Equation 2 (j is an imaginary unit).

【0027】[0027]

【数2】 (Equation 2)

【0028】このCkから振幅スペクトルや位相スペク
トルが求められる。(a)の圧力投影値の変動をフーリエ
変換して、スペクトルを求めたものが(b)の計測値であ
る。このとき圧力分布の大きさは画面内に撮影している
位置により異なるが、ここではX軸方向の大きさがすべ
てN画素となるように、圧力分布の大きさを正規化して
おく。
An amplitude spectrum and a phase spectrum are obtained from Ck. The measured value of (b) is obtained by Fourier transforming the fluctuation of the pressure projection value of (a) and obtaining a spectrum. At this time, the size of the pressure distribution differs depending on the position where the image is captured in the screen. Here, the size of the pressure distribution is normalized so that the size in the X-axis direction is all N pixels.

【0029】(c)は移動する人物のスペクトルであり、
これを基準値とする。このスペクトルの分布が人物の移
動に対する特徴量を表すことになる。(b)の計測値のス
ペクトルが、(c)の基準値に類似していると判断できる
場合には、人物は移動しているものと認識する。
(C) is the spectrum of the moving person,
This is used as a reference value. The distribution of this spectrum represents the feature amount for the movement of the person. When it can be determined that the spectrum of the measured value in (b) is similar to the reference value in (c), the person is recognized as moving.

【0030】スペクトルのような周波数領域で信号を判
断する際には、撮影時のノイズが生じやすい高調波の部
分をカットして比較することができるので、ノイズの影
響を受けにくいという長所がある。以上の例では計測値
と基準値のマッチングにフーリエ変換により得られたス
ペクトルを用いている。しかし、この他にも例えば、圧
力投影値の分布を示す関数について、計測値と基準値の
関数の残差平方和を計算して、この値が小さいほど両者
は類似していると判断することが可能である。
When judging a signal in a frequency domain such as a spectrum, since it is possible to cut and compare a harmonic portion where noise during shooting is likely to occur, there is an advantage that the signal is hardly affected by noise. . In the above example, a spectrum obtained by Fourier transform is used for matching between the measured value and the reference value. However, in addition to this, for example, for a function indicating the distribution of the pressure projection value, the sum of the residual squares of the function of the measured value and the reference value is calculated, and it is determined that the smaller the value is, the more similar the two are. Is possible.

【0031】図5は動作分類処理の説明図である。図4
の方法で人物が移動していることは認識できるが、どの
程度の速さで移動しているか区別はできない。そのた
め、ここでは外接矩形の情報を用いて、「立ってい
る」、「歩いている」あるいは「走っている」といった
動作に分類する。
FIG. 5 is an explanatory diagram of the action classification processing. FIG.
Although it can be recognized that the person is moving by the method described above, it is not possible to distinguish how fast the person is moving. Therefore, here, using the information of the circumscribed rectangle, the motion is classified into “standing”, “walking”, or “running”.

【0032】いま人物はX軸方向に移動するものとする
と、移動速度が大きい場合ほど、外接矩形はX軸方向に
長くなる。圧力分布は一定の時間内での移動量に応じた
形状であるので、外接矩形の大きさは移動情報を持つこ
とになる。そして外接矩形の縦横比は移動速度を表す。
Assuming that the person moves in the X-axis direction, the circumscribed rectangle becomes longer in the X-axis direction as the moving speed increases. Since the pressure distribution has a shape corresponding to the amount of movement within a certain period of time, the size of the circumscribed rectangle has movement information. The aspect ratio of the circumscribed rectangle indicates the moving speed.

【0033】同図のように外接矩形のX軸方向長さをB
x、Y軸方向長さをByとし、縦横比をBx/Byとする。も
しこの縦横比が(a)のように大きい場合には、人物は
「走っている」状態であり、(b)のように小さい場合に
は「立っている」状態であり、両者の中間が「歩いてい
る」状態であると判断できる。Y軸方向に移動があった
場合でも、同様にして判断は可能である。
As shown in the figure, the length of the circumscribed rectangle in the X-axis direction is B
The length in the x- and Y-axis directions is By, and the aspect ratio is Bx / By. If the aspect ratio is large as in (a), the person is in a "running"state; if it is small as in (b), the person is in a "standing" state, and the middle between the two is It can be determined that the user is “walking”. The determination can be made in the same manner even when the movement has occurred in the Y-axis direction.

【0034】次に、図6のフローチャートにより、本発
明の動作認識処理手順の一例を説明する。ステップ100
では利用者がキーボードやマウスを用いて、拡散計算の
制御パラメータを入力する。具体的には画素に割り当て
る濃度値の大きさや、拡散により減少する濃度値の割
合、および拡散により領域が拡大する割合などを制御す
るパラメータである。これらは認識時の撮影条件などに
より変更する必要があるので、ここで利用者が調整をす
る。
Next, an example of the operation recognition processing procedure of the present invention will be described with reference to the flowchart of FIG. Step 100
Then, the user uses a keyboard or a mouse to input control parameters for diffusion calculation. Specifically, it is a parameter for controlling the size of the density value assigned to the pixel, the ratio of the density value reduced by diffusion, the ratio of the area expanded by diffusion, and the like. Since these need to be changed depending on the shooting conditions at the time of recognition, the user makes adjustments here.

【0035】ステップ101は所定のフレーム数だけ、ス
テップ102の処理を繰り返すことを意味している。ステ
ップ102は背景像を作成するステップで、一般的には所
定のフレーム数の間に、画像中で変化のない部分を検出
して、その部分を背景像とすればよい。
Step 101 means that the processing of step 102 is repeated for a predetermined number of frames. Step 102 is a step of creating a background image. Generally, a portion that does not change in the image is detected during a predetermined number of frames, and that portion may be used as the background image.

【0036】ステップ103はこれから計測しようとする
フレーム数について、ステップ104から116の処理を繰り
返すことを意味している。ステップ104ではビデオカメ
ラから1フレーム分の画像を、画像処理ボードの画像メ
モリに読み込みする。ステップ105では人物像の抽出を
行う。これには102で作成した背景像と、104で読み込ん
だ現画像の差分を計算し、これをさらに二値化して人物
のシルエットを人物像として得る。背景像も現画像も画
像メモリに格納すれば、これら演算も画像処理ボード上
で実行できる。
Step 103 means that the processing of steps 104 to 116 is repeated for the number of frames to be measured. In step 104, an image for one frame is read from the video camera into the image memory of the image processing board. In step 105, a person image is extracted. For this purpose, the difference between the background image created in 102 and the current image read in 104 is calculated, and this is further binarized to obtain a silhouette of a person as a person image. If both the background image and the current image are stored in the image memory, these calculations can be executed on the image processing board.

【0037】ステップ106は所定の拡散回数につき、ス
テップ107から111の処理を繰り返すことを意味してい
る。ここで拡散回数とは、生じた圧力差が解消するのに
必要な拡散の回数で、たとえば図2の例では3である。
この場合、現在の時刻がt3であるとすると、3フレーム
前にさかのぼって、t0の画像(a)から順次計算して、(m)
のような圧力分布を計算する。
Step 106 means that the processing of steps 107 to 111 is repeated for a predetermined number of times of diffusion. Here, the number of times of diffusion is the number of times of diffusion required to eliminate the generated pressure difference, and is 3, for example, in the example of FIG.
In this case, assuming that the current time is t3, going back three frames, calculating sequentially from the image (a) at t0, (m)
Is calculated.

【0038】ステップ107では高圧部を抽出する。図1
の例で高圧部とは、時刻t0では背景像の部分で、かつt1
では人物像となった部分である。この高圧部をもとめる
には、画像処理ボードで(a)と(b)の画像の論理演算を実
施すればよい。同様にステップ108では低圧部を抽出す
る。低圧部は、t0で人物像の部分で、t1で背景像となっ
た部分で、同じく論理演算で計算する。
In step 107, a high pressure part is extracted. Figure 1
In the example of the above, the high-pressure part is the part of the background image at time t0 and t1
Is the part that became a human figure. In order to find the high voltage portion, a logical operation of the images (a) and (b) may be performed by the image processing board. Similarly, in step 108, a low pressure portion is extracted. The low-voltage part is a part of the human image at t0 and a part of the background image at t1, and is similarly calculated by a logical operation.

【0039】ステップ109では圧力の拡散状態を求め
る。図1で説明したように、圧力が拡散していく様子は
画像の膨張演算により計算する。事前に拡散で広がる大
きさは定めておき、例えば1回の拡散で1画素膨張する
というように指定する。
In step 109, the pressure diffusion state is determined. As described with reference to FIG. 1, the manner in which the pressure is diffused is calculated by an expansion operation of the image. The size spread by diffusion is determined in advance, and for example, it is specified that one pixel is expanded by one diffusion.

【0040】ステップ110では拡散により変更となった
圧力値を修正する。同じく図1で述べたように、拡散に
よって低圧部の圧力は上昇し、高圧部の圧力は減少す
る。ここでも事前に設定した値により、1回の拡散で所
定の圧力値が加算または減算されるように計算する。
In step 110, the pressure value changed by the diffusion is corrected. As also described with reference to FIG. 1, the pressure in the low pressure section increases and the pressure in the high pressure section decreases due to diffusion. Here, too, the calculation is performed such that a predetermined pressure value is added or subtracted in one diffusion using a value set in advance.

【0041】ステップ111では圧力分布を算出する。図
2の例では(m)の画像を求めることであり、(e)から(j)
のような圧力画像を画像処理ボードで加算することによ
って計算する。
In step 111, the pressure distribution is calculated. In the example of FIG. 2, the image of (m) is obtained, and (e) to (j)
Is calculated by adding pressure images such as

【0042】ステップ112では圧力投影値を算出する。
圧力投影値は図3(c)に示したようなもので、圧力分布
から画像処理ボードの投影演算により計算する。ステッ
プ113では離散フーリエ変換を行う。これは図4で説明
したような方法で、圧力投影値のスペクトル分布を求め
る。ステップ114はスペクトルを照合するステップで、
図4のように計測値と基準値を比較し、類似度が高けれ
ば、人物は移動しているものと判断する。
In step 112, a pressure projection value is calculated.
The pressure projection value is as shown in FIG. 3C, and is calculated from the pressure distribution by the projection calculation of the image processing board. In step 113, a discrete Fourier transform is performed. This obtains the spectral distribution of the pressure projection value by the method described with reference to FIG. Step 114 is a step of matching spectra,
As shown in FIG. 4, the measured value is compared with the reference value. If the similarity is high, it is determined that the person is moving.

【0043】ステップ115は外接矩形の縦横比を計算す
るステップで、図5のようにその比率から「走ってい
る」、「歩いている」あるいは「立っている」のように
動作を分類することができる。ステップ116は認識結果
を出力する。これまでの処理で、画像中の人物の移動動
作が認識できているので、その結果がディスク上のファ
イルなどに出力される。
Step 115 is a step of calculating the aspect ratio of the circumscribed rectangle, and classifying the motion as "running", "walking" or "standing" from the ratio as shown in FIG. Can be. Step 116 outputs the recognition result. Since the movement of the person in the image has been recognized in the processing so far, the result is output to a file on a disk or the like.

【0044】図7は一実施例による動作認識処理装置の
構成図である。ビデオカメラ7は画像処理ボード6に映
像信号を出力する。画像処理ボード6は画像メモリと論
理演算や加減算などの画像演算機能を持ち、これをパソ
コン5で制御することにより、図6に示した手順で処理
が実行される。
FIG. 7 is a block diagram of a motion recognition processing device according to one embodiment. The video camera 7 outputs a video signal to the image processing board 6. The image processing board 6 has an image memory and an image operation function such as a logical operation and addition / subtraction. When the image processing board 6 is controlled by the personal computer 5, the processing is executed according to the procedure shown in FIG.

【0045】パソコン5の内部には、動作認識処理部1
がソフトウエアまたはハードウエアにより実装されてい
る。ここで、動作認識処理部1のパラメータ入力部2は
図6のフローのステップ100を実行する。拡散計算部3
はステップ101からステップ111までの処理を実行し、時
間の経過と共に、上記濃度値を割り当てた領域の拡大を
画像の膨張演算により処理し、かつ上記濃度値の絶対値
は減少するように変化させる。そして、時間の経過と共
に上記領域の範囲と上記濃度値を変化させて作成した画
像を、ディスプレイに表示する。
The operation recognition processing unit 1 is provided inside the personal computer 5.
Is implemented by software or hardware. Here, the parameter input unit 2 of the motion recognition processing unit 1 executes step 100 of the flow of FIG. Diffusion calculator 3
Executes the processing from step 101 to step 111, processes the enlargement of the area to which the density value is assigned by the dilation calculation of the image with the lapse of time, and changes the absolute value of the density value so as to decrease. . Then, an image created by changing the range of the area and the density value over time is displayed on a display.

【0046】動作識別部4はステップ112からステップ1
16までの処理を実行する。上記濃度値の分布を所定の軸
方向に投影させた投影濃度値を特徴量として、上記濃度
値の分布からフーリエ変換してスペクトルを算出し、上
記スペクトルにより既定値と照合する。また、上記濃度
値が分布する領域に外接する外接矩形を算出し、上記外
接矩形の縦横の辺の長さの比に基づいて動作を認識す
る。そして、上記濃度値の分布について所定の区間での
濃度の変動を調査し、所定の値以上に大きな変動が検出
された場合には、上記区間に物体の移動する部分が存在
すると判断する。
The operation discriminating unit 4 performs the steps 1 to
Execute up to 16 processes. A spectrum is calculated by performing a Fourier transform from the distribution of the density values, using a projected density value obtained by projecting the distribution of the density values in a predetermined axial direction as a feature quantity, and comparing the spectrum with a predetermined value based on the spectrum. Further, a circumscribed rectangle circumscribing the area where the density value is distributed is calculated, and the operation is recognized based on the ratio of the length of the vertical and horizontal sides of the circumscribed rectangle. The distribution of the density values is examined for density fluctuations in a predetermined section, and when a fluctuation larger than the predetermined value is detected, it is determined that a portion where an object moves exists in the section.

【0047】なお、本実施例では、画像処理部分は画像
処理ボード6というハードウエアにて実行しているが、
これを用いずに全てをパソコン内のソフトウエアで実行
することも可能である。
In this embodiment, the image processing portion is executed by hardware called an image processing board 6.
Without using this, it is also possible to execute all with the software in the personal computer.

【0048】図8に、本発明による動作認識処理を利用
して、人物の動作分析用のシステムを構築した場合の構
成図を示す。ビデオカメラ7からの動画像データは、動
作認識処理1と軌跡抽出処理20に入力される。
FIG. 8 is a block diagram showing a case where a system for analyzing the motion of a person is constructed using the motion recognition processing according to the present invention. The moving image data from the video camera 7 is input to the motion recognition processing 1 and the trajectory extraction processing 20.

【0049】軌跡抽出処理20では、物体抽出部21が画像
中の人物や物体などの移動体を抽出し、ラベリング部22
が個々の移動体を識別および追跡し、3D座標変換部23が
画像座標を三次元の空間座標に変換して、軌跡データと
して出力する。この軌跡データの内容は、例えば人物が
存在していた平面上での位置座標を、各時刻毎に記録し
たものである。
In the trajectory extraction process 20, the object extracting unit 21 extracts a moving object such as a person or an object in the image, and
Identifies and tracks each moving object, and the 3D coordinate conversion unit 23 converts the image coordinates into three-dimensional spatial coordinates and outputs the converted coordinates as trajectory data. The content of the trajectory data is, for example, the position coordinates on a plane where the person was present recorded at each time.

【0050】パソコン1が出力する動作認識結果は、移
動体単体の動作を表すので、ここでは単独動作データと
表記している。ここには例えば人物については、「走っ
ている」や「立っている」といった動作の種別を示す識
別子が、各時刻毎に記録される。
Since the operation recognition result output from the personal computer 1 indicates the operation of the moving body alone, it is described as single operation data here. Here, for a person, for example, an identifier indicating an operation type such as “running” or “standing” is recorded at each time.

【0051】行動分析処理30は例えば人物の集団として
の動きを分析する部分で、動きの特徴量を求める特徴量
推定部31と、特徴量を照合するマッチング部32とからな
る。行動分析処理30は軌跡データを入力として、集団の
動きの意味を記述した集団動作データを出力する。この
データについて、商業施設や公共施設などのように多数
の人物が集まるような場面での、人物監視のセキュリテ
ィ応用の例としては、「回避」や「集合」といった集団
行動の意味を表す識別子が、各時刻毎に記録される。
The behavior analysis processing 30 is, for example, a part for analyzing a motion as a group of persons, and includes a feature amount estimating unit 31 for obtaining a feature amount of a motion and a matching unit 32 for collating the feature amount. The behavior analysis processing 30 receives the trajectory data as input, and outputs group movement data describing the meaning of the movement of the group. As an example of this data, in situations where many people gather, such as commercial facilities and public facilities, as an example of security application of person monitoring, identifiers that represent the meaning of collective actions such as "avoidance" and "assembly" are used. Are recorded at each time.

【0052】表示処理40は単独動作データと集団動作デ
ータを入力として、まず統計分析部41で統計データを出
力する。この統計データの内容は、各人物毎の移動距離
や分類した動作の回数といった情報で、CG映像と共に
ディスプレイなどに表示される。次のモデル動作生成部
42では三次元CGの人体モデルを動かすために、各関節の
関節角を定める部分である。そしてレンダリング部43で
は人体モデルからCG映像を作成し、これをCG映像デ
ータとして出力する。
The display processing 40 receives the single operation data and the group operation data as input, and first outputs the statistical data by the statistical analysis unit 41. The contents of the statistical data are information such as the moving distance of each person and the number of classified operations, and are displayed together with the CG image on a display or the like. Next model operation generator
Reference numeral 42 denotes a part for determining the joint angle of each joint in order to move the three-dimensional CG human body model. Then, the rendering unit 43 creates a CG image from the human body model and outputs this as CG image data.

【0053】セキュリティ以外の応用でも、サッカーな
どスポーツにおけるゲーム分析の用途にも利用可能であ
る。この場合には単独動作データは個々の選手の動きの
認識結果を、集団動作データはチームプレイの認識結果
を表すことになる。
The present invention can be used not only for security but also for game analysis in sports such as soccer. In this case, the single motion data indicates the recognition result of the motion of each player, and the collective motion data indicates the recognition result of the team play.

【0054】本実施例によれば、人物の位置を表示する
だけでなく、個々の人物について、単独で実施している
動作の識別子が提供できるので、人物の動作分析のため
に有効な情報を提供できる効果がある。
According to this embodiment, not only the position of the person is displayed, but also the identifier of the operation independently performed can be provided for each person, so that information effective for analyzing the operation of the person can be provided. There are effects that can be provided.

【0055】以上の実施例においては、移動認識処理に
おいて、図4のように圧力投影値からスペクトルを求
め、認識のための特徴量として利用していたが、他の特
徴量も利用可能である。
In the embodiment described above, in the movement recognition processing, the spectrum is obtained from the pressure projection value as shown in FIG. 4 and used as a feature for recognition. However, other feature can be used. .

【0056】図9の実施例では、圧力投影値の平均値を
調べることにより認識をしている。同図(a)のように人
物が左から右へ移動する場合には、圧力投影値の分布の
山は必ず右側に発生し、分布の谷は左側となるので、こ
の性質を利用する。同図(b)のように、X=XminからX
=Xmaxの区間に圧力投影値の分布が得られたものとする
と、この分布形状に対する重心点X=Gを求める。この
Gより左側での圧力投影値の平均値をPx0、Gの右側で
の平均値をPx1とする。ここでPx0およびPx1の絶対値が
所定のしきい値以上で、Px1>Px0であれば人物は右へ移
動しているものと認識する。Y軸方向の移動についても
同様である。
In the embodiment shown in FIG. 9, the recognition is made by checking the average value of the pressure projection values. When the person moves from left to right as shown in FIG. 9A, the peak of the distribution of the pressure projection values always occurs on the right side, and the valley of the distribution is on the left side. As shown in FIG. 4B, X = Xmin to X
Assuming that the distribution of the pressure projection values is obtained in the section of = Xmax, the center of gravity X = G for this distribution shape is obtained. The average value of the pressure projection values on the left side of G is Px0, and the average value on the right side of G is Px1. Here, if the absolute values of Px0 and Px1 are equal to or larger than a predetermined threshold value and Px1> Px0, the person is recognized as moving to the right. The same applies to the movement in the Y-axis direction.

【0057】本実施例によれば、重心の前後の圧力投影
値の平均値を調べれば良いので、計算は簡単であり、処
理を高速にできるという長所がある。
According to this embodiment, the average value of the pressure projection values before and after the center of gravity can be checked, so that the calculation is simple and the processing can be performed at high speed.

【0058】以上の実施例においては、人物の体全体の
動きに対する動作を認識していたが、体の中で移動した
部位を認識することも可能である。
In the above embodiment, the motion of the person in response to the movement of the entire body is recognized. However, it is also possible to recognize the part of the body that has moved.

【0059】図10に移動部位の認識の例を説明する。
同図のように人物移動による圧力値が、X=XminからX
=Xmaxの区間およびY=YminからY=Ymaxの区間に存在
するものとし、X軸およびY軸方向に投影させて求めた
圧力投影値があるものとする。ここでX軸およびY軸方
向の中点をXmidおよびYmidとし、人物像の移動部位は、
同図に示す4つの丸付き数字のような領域で分割して考
える。判定用のしきい値をCxおよびCyとし、圧力投影値
の絶対値が、これらの値を超えた領域には、移動する部
位が存在したものとする。
FIG. 10 shows an example of recognition of a moving part.
As shown in the figure, the pressure value due to the movement of the person is changed from X = Xmin to X
= Xmax and Y = Ymin to Y = Ymax, and there is a pressure projection value obtained by projecting in the X-axis and Y-axis directions. Here, the midpoint in the X-axis and Y-axis directions is Xmid and Ymid, and the moving part of the human image is
It is assumed that the image is divided into regions such as four circled numbers shown in FIG. It is assumed that thresholds for determination are Cx and Cy, and a moving part exists in a region where the absolute value of the pressure projection value exceeds these values.

【0060】同図の例では、向かって左下の部位の領域
だけが大きく移動しており、他の領域はほとんど移動し
ていない。このような場合には、人物の右足だけが大き
く動いたと認識することができる。本実施例によれば、
体の中で大きく動いた部位を知ることができ、ここから
例えば「右足で蹴った」のように、動作をさらに細かく
認識できるという長所がある。
In the example shown in the drawing, only the region at the lower left portion moves largely, and the other regions hardly move. In such a case, it can be recognized that only the right leg of the person has largely moved. According to the present embodiment,
The advantage is that you can know the part of the body that has moved significantly, and from this, you can recognize the movement more finely, for example, "Kick with your right foot."

【0061】[0061]

【発明の効果】本発明においては、広域を移動する移動
物体のシルエットを安定して得られ、行動認識が可能に
なる効果がある。また、シルエット形状の変動量を濃度
に変換して記憶するので、動作の分類だけでなく、濃度
分布を調べることにより動作の程度も認識することがで
きる効果がある。
According to the present invention, there is an effect that a silhouette of a moving object moving in a wide area can be stably obtained and action recognition becomes possible. Further, since the variation amount of the silhouette shape is converted into the density and stored, it is possible to recognize not only the motion classification but also the degree of the motion by examining the density distribution.

【図面の簡単な説明】[Brief description of the drawings]

【図1】セル状拡散モデルの説明図。FIG. 1 is an explanatory diagram of a cellular diffusion model.

【図2】セル状拡散モデルによる動作認識の説明図。FIG. 2 is an explanatory diagram of motion recognition using a cellular diffusion model.

【図3】人物像の圧力分布の例示図。FIG. 3 is a view showing an example of a pressure distribution of a human image.

【図4】移動認識処理の説明図。FIG. 4 is an explanatory diagram of a movement recognition process.

【図5】動作分類処理の説明図。FIG. 5 is an explanatory diagram of a motion classification process.

【図6】本発明の一実施例による動作認識処理のフロー
チャート。
FIG. 6 is a flowchart of a motion recognition process according to an embodiment of the present invention.

【図7】本発明の一実施例による動作認識処理装置の構
成図。
FIG. 7 is a configuration diagram of a motion recognition processing device according to an embodiment of the present invention.

【図8】本発明の一実施例による人物動作分析システム
の構成図。
FIG. 8 is a configuration diagram of a person motion analysis system according to one embodiment of the present invention.

【図9】平均値による動作認識の説明図。FIG. 9 is an explanatory diagram of motion recognition based on an average value.

【図10】移動部位の認識の説明図。FIG. 10 is an explanatory diagram of recognition of a moving part.

【符号の説明】[Explanation of symbols]

1…動作認識処理部、2…パラメータ入力部、3…拡散
計算部、4…動作識別部、5…パソコン、6…画像処理
ボード、7…ビデオカメラ、20…軌跡抽出処理部、30…
行動分析処理部、40…表示処理部。
DESCRIPTION OF SYMBOLS 1 ... Motion recognition processing part, 2 ... Parameter input part, 3 ... Diffusion calculation part, 4 ... Motion identification part, 5 ... Personal computer, 6 ... Image processing board, 7 ... Video camera, 20 ... Locus extraction processing part, 30 ...
Behavior analysis processing unit, 40 ... display processing unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高橋 一哉 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 Fターム(参考) 5C023 AA04 AA38 BA04 DA01 DA08 5C054 AA01 EA01 FC03 FC12 FC13 FC16 FD03 FE13 GA04 GB15 HA18 5L096 CA22 EA02 EA43 FA18 FA23 FA35 FA70 FA81 GA21 GA34 HA05 MA07  ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Kazuya Takahashi 7-1-1, Omika-cho, Hitachi City, Ibaraki Prefecture F-term in Hitachi Research Laboratory, Hitachi Ltd. 5C023 AA04 AA38 BA04 DA01 DA08 5C054 AA01 EA01 FC03 FC12 FC13 FC16 FD03 FE13 GA04 GB15 HA18 5L096 CA22 EA02 EA43 FA18 FA23 FA35 FA70 FA81 GA21 GA34 HA05 MA07

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 画像中の特定の領域の範囲および濃度値
を所定の割合で変化させるための制御パラメータを入力
するパラメータ入力部と、 移動する物体の動画像を物体像と背景像に分離し、所定
の時刻に物体像が存在する領域の画素に所定の濃度値を
割り当て、上記制御パラメータに基づいて、時間の経過
と共に上記領域の範囲と上記濃度値を変化させる拡散計
算部と、 上記領域における上記濃度値の分布から特徴量を抽出
し、上記特徴量と既定値との照合に基づき、上記物体の
動作を認識する動作識別部とを備えたことを特徴とする
動作認識処理装置。
1. A parameter input unit for inputting a control parameter for changing a range and a density value of a specific area in an image at a predetermined rate, and separating a moving image of a moving object into an object image and a background image. A diffusion calculation unit that assigns a predetermined density value to a pixel in an area where an object image exists at a predetermined time, and changes the range of the area and the density value over time based on the control parameter; A motion identification unit that extracts a feature amount from the distribution of the density values in (1) and recognizes a motion of the object based on a comparison between the feature amount and a predetermined value.
【請求項2】 請求項1において、 上記拡散計算部は、現在は背景像である画素が以前は物
体像であった場合には、画素に負の値を表現する濃度値
を割り当て、現在は物体像である画素が以前は背景像で
ある場合には、画素に正の値を表現する濃度値を割り当
て、変化のない部分には0の値を表現する濃度値を割り
当てることを特徴とする動作認識処理装置。
2. The method according to claim 1, wherein the diffusion calculation unit assigns a density value representing a negative value to the pixel when the pixel which is currently a background image was previously an object image, When the pixel which is the object image was previously a background image, a density value expressing a positive value is assigned to the pixel, and a density value expressing a value of 0 is assigned to a portion which does not change. Motion recognition processor.
【請求項3】 請求項1または2において、 上記拡散計算部は、時間の経過と共に、上記濃度値を割
り当てた領域を拡大させ、かつ上記濃度値の絶対値は減
少するように変化させることを特徴とする動作認識処理
装置。
3. The diffusion calculation unit according to claim 1, wherein the diffusion calculation unit enlarges the area to which the density value is assigned and changes the absolute value of the density value so as to decrease with time. Characteristic motion recognition processing device.
【請求項4】 請求項1または2において、 上記拡散計算部は、上記濃度値を割り当てた領域の拡大
を、画像の膨張演算により処理することを特徴とする動
作認識処理装置。
4. The motion recognition processing device according to claim 1, wherein the diffusion calculation unit processes the expansion of the area to which the density value is assigned by an expansion operation of an image.
【請求項5】 請求項1乃至4のいずれかにおいて、 上記拡散計算部は、時間の経過と共に上記領域の範囲と
上記濃度値を変化させて作成した画像を、ディスプレイ
に出力し、表示することを特徴とする動作認識処理装
置。
5. The diffusion calculation unit according to claim 1, wherein the diffusion calculation unit outputs and displays an image created by changing the range of the area and the density value over time on a display. A motion recognition processing device characterized by the following.
【請求項6】 請求項1乃至5のいずれかにおいて、 上記動作識別部は、上記濃度値の分布を所定の軸方向に
投影させた投影濃度値を上記特徴量として用いることを
特徴とする動作認識処理装置。
6. The operation according to claim 1, wherein the operation identification unit uses a projection density value obtained by projecting the distribution of the density values in a predetermined axial direction as the feature amount. Recognition processing device.
【請求項7】 請求項1乃至6のいずれかにおいて、 上記動作識別部は、上記濃度値の分布からフーリエ変換
してスペクトルを算出し、上記スペクトルにより既定値
と照合することを特徴とする動作認識処理装置。
7. The operation according to claim 1, wherein the operation identification unit calculates a spectrum by performing a Fourier transform from the distribution of the density values, and compares the spectrum with a predetermined value based on the spectrum. Recognition processing device.
【請求項8】 請求項1乃至7のいずれかにおいて、 上記動作識別部は、上記濃度値が分布する領域に外接す
る外接矩形を算出し、上記外接矩形の縦横の辺の長さの
比に基づいて、動作を認識することを特徴とする動作認
識処理装置。
8. The operation identification unit according to claim 1, wherein the motion identification unit calculates a circumscribed rectangle circumscribing the area where the density value is distributed, and calculates a ratio of lengths of the vertical and horizontal sides of the circumscribed rectangle. A motion recognition processing device for recognizing a motion based on the motion recognition.
【請求項9】 請求項1乃至8のいずれかにおいて、 上記動作識別部は、上記濃度値の分布について所定の区
間での濃度の平均値を算出し、上記平均値の大小関係に
基づいて、動作を認識することを特徴とする動作認識処
理装置。
9. The motion identification unit according to claim 1, wherein the motion identification unit calculates an average value of densities in a predetermined section with respect to the distribution of the density values, based on a magnitude relationship between the average values. An operation recognition processing device for recognizing an operation.
【請求項10】 請求項1乃至9のいずれかにおいて、 上記動作識別部は、上記濃度値の分布について所定の区
間での濃度の変動を調査し、所定の値以上に大きな変動
が検出された場合には、上記区間に物体の移動する部分
が存在すると判断することを特徴とする動作認識処理装
置。
10. The motion identification unit according to claim 1, wherein the action discriminating unit investigates a density variation in a predetermined section of the density value distribution, and detects a large variation larger than a predetermined value. In such a case, it is determined that there is a moving part of the object in the section.
【請求項11】 人物などの移動動作を撮影したビデオ
カメラからの動画像データから、移動する物体の移動軌
跡を求め、軌跡データとして出力する軌跡抽出処理部
と、 上記動画像データから、個々の移動する物体の動作を識
別し、単独動作データとして出力する動作識別部と、 上記軌跡データから、集団としての行動を識別し、集団
動作データとして出力する行動分析処理部と、 上記単独動作データおよび上記集団動作データから、統
計処理および三次元グラフィックス処理を行って、統計
データおよびCG映像データを出力する表示処理部とを
備えることを特徴とする移動物体の動作分析システム。
11. A trajectory extraction processing unit that obtains a trajectory of a moving object from moving image data from a video camera that captures a moving motion of a person or the like, and outputs the trajectory as trajectory data. An action identification unit that identifies the action of the moving object and outputs the action data as independent action data, an action analysis processing unit that identifies the action as a group from the trajectory data and outputs the action as group action data, A motion analysis system for a moving object, comprising: a display processing unit that performs statistical processing and three-dimensional graphics processing from the collective motion data and outputs statistical data and CG video data.
【請求項12】 請求項11において、 前記動作識別部は、画像中の特定の領域の範囲および濃
度値を所定の割合で変化させるための制御パラメータを
入力するパラメータ入力部と、 移動する物体の動画像を物体像と背景像に分離し、所定
の時刻に物体像が存在する領域の画素に所定の濃度値を
割り当て、上記制御パラメータに基づいて、時間の経過
と共に上記領域の範囲と上記濃度値を変化させる拡散計
算部と、 上記領域における上記濃度値の分布から特徴量を抽出
し、上記特徴量と既定値との照合に基づき、上記物体の
動作を認識する動作識別部とを有することを特徴とする
移動物体の動作分析システム。
12. The apparatus according to claim 11, wherein the operation identification unit includes a parameter input unit for inputting a control parameter for changing a range and a density value of a specific area in the image at a predetermined ratio. The moving image is separated into an object image and a background image, a predetermined density value is assigned to a pixel in an area where the object image exists at a predetermined time, and the range of the area and the density are determined with the lapse of time based on the control parameters. A diffusion calculation unit that changes a value; and an operation identification unit that extracts a feature amount from the distribution of the density values in the region and that recognizes an operation of the object based on a comparison between the feature amount and a predetermined value. A motion analysis system for a moving object.
JP2000187528A 2000-06-19 2000-06-19 Motion recognition processing device and motion analysis system for moving object Expired - Fee Related JP3519672B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000187528A JP3519672B2 (en) 2000-06-19 2000-06-19 Motion recognition processing device and motion analysis system for moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000187528A JP3519672B2 (en) 2000-06-19 2000-06-19 Motion recognition processing device and motion analysis system for moving object

Publications (2)

Publication Number Publication Date
JP2002008042A true JP2002008042A (en) 2002-01-11
JP3519672B2 JP3519672B2 (en) 2004-04-19

Family

ID=18687494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000187528A Expired - Fee Related JP3519672B2 (en) 2000-06-19 2000-06-19 Motion recognition processing device and motion analysis system for moving object

Country Status (1)

Country Link
JP (1) JP3519672B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251556A (en) * 2006-03-15 2007-09-27 Omron Corp Monitoring apparatus and method, image processing apparatus and method, and program
WO2009054119A1 (en) * 2007-10-26 2009-04-30 Panasonic Corporation Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method, abnormality judging program, and congestion estimating device
JP2009110152A (en) * 2007-10-29 2009-05-21 Panasonic Corp Congestion estimation device
JP2009110054A (en) * 2007-10-26 2009-05-21 Panasonic Corp Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method and abnormality judging program
US7747957B2 (en) 2003-02-24 2010-06-29 Fuji Xerox Co., Ltd. Work space control apparatus
US7881524B2 (en) 2005-04-08 2011-02-01 Canon Kabushiki Kaisha Information processing apparatus and information processing method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7747957B2 (en) 2003-02-24 2010-06-29 Fuji Xerox Co., Ltd. Work space control apparatus
US7881524B2 (en) 2005-04-08 2011-02-01 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2007251556A (en) * 2006-03-15 2007-09-27 Omron Corp Monitoring apparatus and method, image processing apparatus and method, and program
WO2009054119A1 (en) * 2007-10-26 2009-04-30 Panasonic Corporation Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method, abnormality judging program, and congestion estimating device
JP2009110054A (en) * 2007-10-26 2009-05-21 Panasonic Corp Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method and abnormality judging program
CN101681555A (en) * 2007-10-26 2010-03-24 松下电器产业株式会社 Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method, abnormality judging program, and congestion estimating device
JP4624396B2 (en) * 2007-10-26 2011-02-02 パナソニック株式会社 Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method and abnormality judging program
US8472715B2 (en) 2007-10-26 2013-06-25 Panasonic Corporation Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
US8655078B2 (en) 2007-10-26 2014-02-18 Panasonic Corporation Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
JP2009110152A (en) * 2007-10-29 2009-05-21 Panasonic Corp Congestion estimation device

Also Published As

Publication number Publication date
JP3519672B2 (en) 2004-04-19

Similar Documents

Publication Publication Date Title
Zhang et al. Fast and robust occluded face detection in ATM surveillance
Tian Evaluation of face resolution for expression analysis
Zeng et al. Silhouette-based gait recognition via deterministic learning
EP2192549B1 (en) Target tracking device and target tracking method
Arcoverde Neto et al. Enhanced real-time head pose estimation system for mobile device
KR20000050399A (en) Method of extraction of face from video image
Elakkiya et al. Intelligent system for human computer interface using hand gesture recognition
Liao et al. RETRACTED ARTICLE: Computer vision for facial analysis using human–computer interaction models
JP3519672B2 (en) Motion recognition processing device and motion analysis system for moving object
CN117291951A (en) Multi-human-body posture tracking method based on human body key points
Elmezain et al. Vision-based human activity recognition using ldcrfs
Zhang et al. Gender recognition based on fusion on face and gait information
Sriram et al. Human detection and tracking in video surveillance system
Jian et al. Real-time lip tracking for virtual lip implementation in virtual environments and computer games
Liang et al. Real-time background subtraction under varying lighting conditions
Abin et al. Real-time multiple face detection and tracking
Sarma et al. Optical flow guided motion template for hand gesture recognition
Yang et al. An interaction system using mixed hand gestures
Nanthini et al. An Efficient Velocity Estimation Approach for Face Liveness Detection using Sparse Optical Flow Technique
JPH08153187A (en) Image recognizing method
Jacques et al. Improved head-shoulder human contour estimation through clusters of learned shape models
Mudjirahardjo et al. Head detection and tracking for an intelligent room
Takahashi et al. Remarks on human posture classification using self-organizing map
Gao et al. An automatic geometric features extracting approach for facial expression recognition based on corner detection
WO2004088587A1 (en) Image processing method and image processing device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040129

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080206

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090206

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090206

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100206

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100206

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110206

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130206

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees