JPH08214289A - Device and method for analyzing time series image - Google Patents

Device and method for analyzing time series image

Info

Publication number
JPH08214289A
JPH08214289A JP7272635A JP27263595A JPH08214289A JP H08214289 A JPH08214289 A JP H08214289A JP 7272635 A JP7272635 A JP 7272635A JP 27263595 A JP27263595 A JP 27263595A JP H08214289 A JPH08214289 A JP H08214289A
Authority
JP
Japan
Prior art keywords
unit
time
model
parameters
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7272635A
Other languages
Japanese (ja)
Other versions
JP3780017B2 (en
Inventor
Hiromi Nishizuka
弘美 西塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP27263595A priority Critical patent/JP3780017B2/en
Publication of JPH08214289A publication Critical patent/JPH08214289A/en
Application granted granted Critical
Publication of JP3780017B2 publication Critical patent/JP3780017B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To effectively execute time series analysis by highly accurately analyze the movement of an object for a part of which analysis is impossible due to the influence of shield or the like by a conventional method by utilizing knowledge relating to the shape and operation of the object. CONSTITUTION: An input part 1 executes photoelectric conversion for a photographed image and a video signal for prescribed time is transferred to an A/D conversion part 2 based upon the control of a control part 11. The A/D conversion part 2 converts the video signal into a digital image signal and transfers the digital image signal to a buffer memory part 3. The memory part 3 temporarily stores the transferred signal and outputs the stored data to an auxiliary I/O part 4 such as a magnetic disk device as the image data of each frame. The I/O part 4 outputs image data to a shape generating part 5 under the control of the control part 11. The generating part 5 calculates the absolute value of a difference between a background image in which analytical processing does not exist and an original image in which an object exists, binarizes the absolute value and extracts only a moving image area.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、時系列画像中から所定
の対象物を抽出し、解析を行う時系列画像解析装置に係
り、対象物の動作を高精度に解析を行う時系列画像解析
装置及びその解析方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a time-series image analysis apparatus for extracting a predetermined object from a time-series image and analyzing it, and a time-series image analysis for highly accurately analyzing the operation of the object. The present invention relates to a device and an analysis method thereof.

【0002】[0002]

【従来の技術】一般に、CCDカメラ等の画像撮影装置
により撮影された画像の認識を行うための種々の技術が
知られている。例えば、「だ円によるシルエット図形の
記述と表現」(木本伊彦他 電子情報通信学会論文誌
D−II Voll.J76−DII No.6 P115
9〜P1167)に記載されるように、自然画像から2
値化処理を行うことにより、シルエットの抽出を行い、
その抽出されたシルエット領域内を全探索し、面積最大
の楕円の当て嵌めを行う。そして、当て嵌めを行われて
いない残りのシルエット領域に関しても同様に楕円の当
て嵌めを行い、対象物の形状の認識を行っている。
2. Description of the Related Art Generally, various techniques are known for recognizing an image captured by an image capturing device such as a CCD camera. For example, "description and representation of silhouette figures by ellipses" (Ihiko Kimoto et al. IEICE Transactions
D-II Vol. J76-DII No. 6 P115
9-P1167), 2 from the natural image.
By performing the value conversion process, the silhouette is extracted,
A full search is performed in the extracted silhouette area, and an ellipse with the largest area is fitted. Then, for the remaining silhouette areas that have not been fitted, elliptical fitting is similarly performed to recognize the shape of the object.

【0003】[0003]

【発明が解決しようとする課題】しかし前述した従来の
手法では、対象物の認識が一枚の静止画像とこの静止画
像から抽出されたシルエット画像のみで行われている。
従って、影や遮蔽の影響で対象物の本来の形状の情報が
欠落している場合、どの部位が欠落しているのか、また
はこのどの部位がどのような動きをしているのか解析す
ることができない。 さらに誤認識が生じた場合でも、
それが実際に、誤認識であるかどうか判定できない。
However, in the above-mentioned conventional method, the object is recognized only by one still image and the silhouette image extracted from this still image.
Therefore, if the information on the original shape of the object is missing due to the influence of shadows or occlusions, it is possible to analyze which part is missing or what part is moving. Can not. Even if misrecognition occurs,
It cannot be determined if it is, in fact, a misrecognition.

【0004】そこで本発明は、対象物の形状と動作に関
する知識を利用し、対象物の動きを高精度に解析を行う
ことができる時系列画像解析装置及びその解析方法を提
供することを目的とする。
Therefore, an object of the present invention is to provide a time-series image analysis apparatus and an analysis method thereof, which can analyze the movement of an object with high accuracy by utilizing knowledge about the shape and motion of the object. To do.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、時系列画像中の所定の対象物を解析する時系列画像
解析装置において、上記時系列画像中の所定の時間範囲
内の複数の画像から対象物を抽出する形状生成手段と、
上記対象物の形状及び動きによる形状変化に関する知識
を、上記対象物を構成する部位のそれぞれについてパラ
メータとして格納する対象物モデル手段と、上記形状生
成手段によって抽出された上記対象物から上記対象物モ
デル手段に格納されたパラメータと経時的に対応した部
位の位置や傾斜角のパラメータを算出するパラメータ算
出手段と、上記複数の画像のそれぞれに対応する、上記
パラメータ算出手段により算出された上記対象物のパラ
メータを構成要素とするパラメータの集合を、上記対象
物のパラメータに対応する上記モデル手段に格納された
パラメータのそれぞれを構成要素とするパラメータの集
合に整合させる整合手段とで構成される時系列画像解析
装置を提供する。
In order to achieve the above object, in a time-series image analysis device for analyzing a predetermined object in a time-series image, a plurality of time-series images in a predetermined time range are analyzed. Shape generation means for extracting the object from the image,
Object model means for storing knowledge about the shape and shape change due to movement of the object as a parameter for each part constituting the object, and the object model from the object extracted by the shape generation means Parameter calculation means for calculating the position and inclination angle parameters of the part corresponding to the parameters stored in the means over time, and the object calculated by the parameter calculation means corresponding to each of the plurality of images Time-series image composed of matching means for matching a set of parameters having parameters as constituent elements with a set of parameters having respective parameters stored in the model means corresponding to the parameters of the object as constituent elements Provide an analysis device.

【0006】さらに、時系列画像中の所定の対象物を解
析する動画像解析方法において、上記対象物の形状及び
動きによる形状変化の知識を、上記対象物を構成する部
位のそれぞれについてパラメータ化することによってモ
デル化し、上記モデル化されたパラメータのうち動きに
関する知識を時間の関数として格納し、上記時系列画像
中の所定の時間範囲内の複数の画像から上記対象物を抽
出して、上記モデル化されたパラメータに対応するパラ
メータを算出し、上記モデル化されたパラメータと上記
対象物から算出されたパラメータとの間の同期をとり、
同期した上記対象物からのパラメータによる形状と、上
記モデル化されたパラメータによる形状との大きさが合
うように上記モデル化されたパラメータを補正し、上記
対象物に基づいて算出したパラメータを上記関数から求
められたパラメータに整合する時系列画像解析方法を提
供する。
Further, in a moving image analysis method for analyzing a predetermined object in a time-series image, knowledge of the shape of the object and its shape change due to movement is parameterized for each part constituting the object. Modeled by storing the knowledge of motion as a function of time among the modeled parameters, extracting the object from a plurality of images within a predetermined time range in the time series image, and Calculating a parameter corresponding to the parameterized, synchronized between the modeled parameter and the parameter calculated from the object,
The modeled parameters are corrected so that the shapes of the parameters synchronized from the object and the shapes of the modeled parameters are matched, and the parameters calculated based on the object are used as the function. A time-series image analysis method that matches the parameters obtained from the above.

【0007】[0007]

【作用】以上のような構成の時系列画像解析装置によ
り、時系列画像中の所定の時間範囲内の複数の画像から
対象物を抽出し、対象物を構成する部位の形状と動きを
パラメータとして表し、他方で上記対象物のモデルを上
記パラメータに対応するパラメータとして格納する。上
記複数の画像において全体として、対象物から求められ
たパラメータと、モデルのパラメータとが整合するよう
に、すなわち、それぞれのパラメータの値が所定の関係
を満たすように対象物から求められたパラメータを補正
することによって、対象物の動きが認識され、高精度に
解析される。若しくは、上記パラメータ算出手段によっ
て算出されたパラメータから対象物を表す画像として構
成される画像と上記形状生成手段によって抽出された対
象物が所定の関係を満たすように上記対象物のパラメー
タを補正することによって対象物の動きを解析する。
With the above-described time-series image analysis device, an object is extracted from a plurality of images within a predetermined time range in the time-series image, and the shape and movement of the parts constituting the object are used as parameters. On the other hand, the model of the object is stored as a parameter corresponding to the above parameter. In the plurality of images as a whole, the parameters obtained from the object are set so that the parameters obtained from the object and the parameters of the model match, that is, the values of the respective parameters satisfy a predetermined relationship. By the correction, the movement of the object is recognized and analyzed with high accuracy. Alternatively, the parameters of the object are corrected so that an image configured as an image representing the object from the parameters calculated by the parameter calculation means and the object extracted by the shape generation means satisfy a predetermined relationship. To analyze the movement of the object.

【0008】また、時系列画像解析方法により、時系列
画像中の対象物を構成する各部位のパラメータを算出
し、抽出された対象物に基づいて、モデルの大きさの補
正が行われ、対象物とモデルの動きの同期がとられた
後、対象物から算出されたパラメータとモデルのパラメ
ータのそれぞれの大きさが所定の関係を満たすように対
象物から算出されたパラメータが補正される。
Further, the time-series image analysis method is used to calculate the parameters of each part constituting the object in the time-series image, and the size of the model is corrected based on the extracted object. After the movements of the object and the model are synchronized, the parameters calculated from the object are corrected so that the magnitudes of the parameters calculated from the object and the parameters of the model satisfy a predetermined relationship.

【0009】[0009]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態について詳細に説明する。
DETAILED DESCRIPTION OF THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.

【0010】図1は、本発明による第1実施形態として
の時系列画像解析装置の概略的な全体の構成例を示す図
である。
FIG. 1 is a diagram showing a schematic overall configuration example of a time-series image analysis apparatus according to a first embodiment of the present invention.

【0011】この時系列画像解析装置は、CCDカメラ
等からなる画像の入力部1と、上記入力部1からの画像
入力信号をデジタル化するA/D部2と、上記A/D部
2からのデジタル画像信号をフレーム単位で一時的に記
憶するバッファメモリ部3と、上記バッファメモリ部3
からの画像データを保存する磁気ディスク等からなる補
助入出力部4と、上記画像データから所望の対象物
(動画像領域)を抽出し、シルエット画像として生成す
る形状生成部5と、上記形状生成部5により生成された
シルエット画像を、予め解析の対象となる物体の各部位
(パーツ)の形状に対応する単純な幾何学的な形状、例
えば図2に示す楕円のような幾何学形状で各部位を表現
するためのモデル形状や動作の情報などが格納されてい
る対象物モデル部6と、上記形状生成部5と上記対象物
モデル部6により対象物を構成する部位に分割し、各部
位の位置や傾斜角のパラメータを概略的に算出するパラ
メータ算出部7と、上記パラメータ算出部7により算出
されたパラメータ群全体を、上記対象物モデル部6が出
力するパラメータ群全体及び形状生成部5が生成したシ
ルエット画像群に整合させる整合部8と、上記整合部8
で算出されたパラメータ群を画像生成部12に出力す
る。上記画像生成部12にて画像化された解析結果の出
力をアナログ化するD/A部9と、アナログ化された画
像データを出力する出力部10と、これらの構成部の動
作を制御する制御部11とで構成される。以上のように
構成された時系列画像解析装置における画像解析につい
て説明する。
This time-series image analysis apparatus comprises an image input section 1 including a CCD camera, an A / D section 2 for digitizing an image input signal from the input section 1, and an A / D section 2. A buffer memory unit 3 for temporarily storing the digital image signal of the frame unit, and the buffer memory unit 3
Auxiliary input / output unit 4 composed of a magnetic disk or the like for storing image data from the image data, and a desired object from the image data.
A shape generation unit 5 that extracts a (moving image area) and generates a silhouette image, and a silhouette image generated by the shape generation unit 5 correspond to the shape of each part (part) of the object to be analyzed in advance. A simple geometrical shape, for example, a model shape for expressing each part in a geometrical shape such as an ellipse shown in FIG. It is calculated by the parameter calculation unit 7 that divides the object into parts that form the object by the generation unit 5 and the object model unit 6 and roughly calculates the parameters of the position and tilt angle of each part, and the parameter calculation unit 7. A matching unit 8 for matching the entire parameter group with the entire parameter group output by the object model unit 6 and the silhouette image group generated by the shape generating unit 5, and the matching unit 8
The parameter group calculated in step 3 is output to the image generator 12. The D / A unit 9 for analogizing the output of the analysis result imaged by the image generating unit 12, the output unit 10 for outputting the analogized image data, and the control for controlling the operation of these components. And part 11. Image analysis in the time-series image analysis device configured as described above will be described.

【0012】まず、入力部1は撮影した映像を光電変換
し、制御部11の制御に基づき、所定時間の映像信号と
してA/D部2へ転送する。上記A/D部2は、上記映
像信号をデジタル画像信号に変換し、バッファメモリ部
3へ転送する。このバッファメモリ部3は、複数のフレ
ームメモリで構成され、A/D部2からの上記デジタル
画像信号を一時的に記憶し、フレーム単位の画像データ
に変換して順次、磁気ディスク装置などの補助入出力部
4へ出力する。
First, the input unit 1 photoelectrically converts a captured image and transfers it to the A / D unit 2 as a video signal for a predetermined time under the control of the control unit 11. The A / D section 2 converts the video signal into a digital image signal and transfers it to the buffer memory section 3. The buffer memory unit 3 is composed of a plurality of frame memories, temporarily stores the digital image signal from the A / D unit 2, converts it into image data in frame units, and sequentially assists a magnetic disk device or the like. Output to the input / output unit 4.

【0013】上記補助入出力部4は、制御部11の制御
により上記画像データを形状生成部5へ出力する。形状
生成部5では、上記画像データにおいて、解析処理の対
象物が存在しない背景画像と、対象物の存在している原
画像との差の絶対値を算出した後、2値化処理し、動画
像領域(対象物のシルエット画像)のみを取り出す。こ
こで、上記背景画像は、予め撮影したものを用いてもよ
いし、原画像から背景画像を生成して用いてもよい。
The auxiliary input / output unit 4 outputs the image data to the shape generation unit 5 under the control of the control unit 11. The shape generation unit 5 calculates the absolute value of the difference between the background image in which the object of analysis processing does not exist and the original image in which the object exists in the image data, and then performs binarization processing to generate a moving image. Only the image area (silhouette image of the object) is taken out. Here, as the background image, a previously captured image may be used, or a background image may be generated from an original image and used.

【0014】上記形状生成部5で生成されたシルエット
画像は、対象物モデル部6、パラメータ算出部7、整合
部8にそれぞれ出力される。
The silhouette image generated by the shape generation unit 5 is output to the object model unit 6, the parameter calculation unit 7, and the matching unit 8, respectively.

【0015】上記対象物モデル部6は、制御部11の制
御により、シルエット画像と対象物の形状の情報を用い
てモデルサイズの校正を行う。上記パラメータ算出部7
では、制御部11の制御により、形状生成部5のシルエ
ット画像と、対象物モデル部6の各出力から対象物の各
部位の位置や傾斜角のパラメータを概略的に決定する。
具体的な一例としては、形状生成部5で生成されたシ
ルエット画像よりスケルトンの抽出を行う。抽出された
スケルトンは、元のシルエットの幅の情報を含んでい
る。また、スケルトンの抽出方法に関しては、例えば、
総研出版刊、コンピュータ画像処理入門(p77)など
に記載されており、ここでの詳細な説明は省略する。
Under the control of the control section 11, the object model section 6 calibrates the model size using the silhouette image and the information on the shape of the object. The parameter calculation unit 7
Then, under the control of the control unit 11, the parameters of the position and the inclination angle of each part of the target object are roughly determined from the silhouette image of the shape generation unit 5 and each output of the target object model unit 6.
As a specific example, a skeleton is extracted from the silhouette image generated by the shape generator 5. The extracted skeleton contains the width information of the original silhouette. Regarding the skeleton extraction method, for example,
It is described in Souken Shuppan, Computer Image Processing Primer (p77), etc., and detailed description is omitted here.

【0016】次に上記対象物モデル部6の各部位のサイ
ズに基づきスケルトンの分割を行う。分割されたスケル
トンの中心点が各部位の位置に、傾きが傾斜角に相当す
る。また、中心点におけるスケルトンの幅情報を許容範
囲εとする。
Next, the skeleton is divided based on the size of each part of the object model section 6. The center point of the divided skeleton corresponds to the position of each part, and the tilt corresponds to the tilt angle. Further, the width information of the skeleton at the center point is set as the allowable range ε.

【0017】そして、形状生成部5で生成されたシルエ
ット画像、対象物モデル部6のモデル、パラメータ算出
部7で算出された各部位のパラメータは、整合部8にそ
れぞれ出力される。上記整合部8では、形状生成部5、
対象物モデル部6、パラメータ算出部7の各出力を用い
て、時系列画像中の対象物と対象物モデル部6の動作に
関する時刻の同期を行い、パラメータ算出部7により算
出されたパラメータ群全体と対象物モデル部6のパラメ
ータ群全体および形状生成部5のシルエット画像群との
関係を照合し、誤差を最小化させる。
The silhouette image generated by the shape generation unit 5, the model of the object model unit 6, and the parameters of each part calculated by the parameter calculation unit 7 are output to the matching unit 8. In the matching unit 8, the shape generation unit 5,
The outputs of the object model unit 6 and the parameter calculation unit 7 are used to synchronize the time regarding the operation of the object in the time-series image and the object model unit 6, and the entire parameter group calculated by the parameter calculation unit 7. And the relationship between the entire parameter group of the object model unit 6 and the silhouette image group of the shape generation unit 5 are collated to minimize the error.

【0018】上記整合部8の出力は、制御部11の制御
により、画像生成部12に転送され、算出されたパラメ
ータを例えば、楕円等で表すことにより画像化する。前
記画像生成部12で生成された画像は、D/A部9に転
送して、アナログ信号に変換される。さらに制御部11
により上記アナログ信号をディスプレイ等の出力部10
へ出力し、画像解析結果を表示する。
The output of the matching unit 8 is transferred to the image generation unit 12 under the control of the control unit 11, and the calculated parameter is represented by, for example, an ellipse to form an image. The image generated by the image generation unit 12 is transferred to the D / A unit 9 and converted into an analog signal. Furthermore, the control unit 11
The above analog signal is output by the output unit 10 such as a display.
Output to and display the image analysis results.

【0019】次に図2は、対象物モデル部6に格納され
ているモデルを説明するための図である。
Next, FIG. 2 is a diagram for explaining the model stored in the object model unit 6.

【0020】図2(a)は、例えば、人間を対象物と
し、この形状を胴体、頭、手足等の対象物を構成する複
数の部位に分解して、楕円で表現した場合のモデルを示
す。但し上記楕円は単純な幾何学的形状の一例であり、
数字は部位の番号であり、a,bは、各部位の長さを表
す。このモデルでは、各部位のサイズ比、接続関係など
対象物に関して、予め分かっている標準的な情報が格納
してある。
FIG. 2A shows a model in which, for example, a human being is an object, and this shape is decomposed into a plurality of parts constituting the object such as a body, head, and limbs, and is represented by an ellipse. . However, the above ellipse is an example of a simple geometric shape,
The numbers are the numbers of the parts, and a and b represent the length of each part. In this model, standard information that is known in advance regarding the object such as the size ratio of each part and the connection relationship is stored.

【0021】図2(b)は、各部位の接続関係と接続番
号を示す。
FIG. 2B shows the connection relationship and connection number of each part.

【0022】対象物の各部位の大きさを対象物の身長に
対する比率として定義し、対象物モデル部6に格納す
る。また、各部位の大きさの校正を行うために、モデル
の対象物の高さ方向の大きさ(身長)mhもモデルの一
部として格納しておく。なお、単純な幾何学的形状とし
ては、楕円に限定されるものではなく、線分や円柱など
で記述することも勿論可能である。
The size of each part of the object is defined as a ratio to the height of the object and stored in the object model unit 6. Further, in order to calibrate the size of each part, the size (height) mh in the height direction of the object of the model is also stored as a part of the model. Note that the simple geometrical shape is not limited to an ellipse, and it is of course possible to describe it with a line segment or a cylinder.

【0023】また、対象となる動作の各部位の位置や傾
斜角の理論的な数値データが時刻に対応して格納されて
いる。対象物の対象となる動作の数値データの算出を行
うために、マーカを用いて数値データを収集する。ここ
で、数値データとは、各部位の中心位置(x,y)、傾
斜角θのことである。
Further, theoretical numerical data of the position and inclination angle of each part of the target motion are stored corresponding to the time. In order to calculate the numerical data of the target motion of the object, the numerical data is collected using the markers. Here, the numerical data is the center position (x, y) of each part and the inclination angle θ.

【0024】マーカを対象物の各部位の中心位置に装着
し、対象となる動作の撮影を行う。撮影された画像から
マーカを抽出し、抽出されたマーカの重心を各部位の中
心点(x,y)とする。このマーカの傾斜角は、例えば
抽出されたマーカの細線化を行い、この線の傾きを角度
θとする。マーカの形状は、例えば長方形など傾斜角の
算出が行うことが可能である形状であればよい。
A marker is attached to the center position of each part of the target object, and the target motion is photographed. A marker is extracted from the captured image, and the center of gravity of the extracted marker is set as the center point (x, y) of each part. For the inclination angle of this marker, for example, the extracted marker is thinned, and the inclination of this line is taken as the angle θ. The shape of the marker may be a shape such as a rectangle that allows calculation of the tilt angle.

【0025】また、マーカは各部位の接続位置つまり、
関節に装着してもよい。この場合の数値データの算出法
は、マーカを抽出し、各マーカの位置の算出を行う。接
続関係にある部位の2つのマーカの位置を用いて(1)
式に示すように部位の長さ、傾斜角、中心点の算出を行
う。
The marker is a connection position of each part, that is,
It may be attached to the joint. In the numerical data calculation method in this case, markers are extracted and the positions of the markers are calculated. Using the positions of the two markers in the connected parts (1)
As shown in the formula, the length of the part, the inclination angle, and the center point are calculated.

【0026】このマーカを各部位の接続位置に装着する
ことにより、各部位の長さを正確に算出することができ
る。なお、マーカ形状は、円形のように動作の妨げにな
らず、各部位の長さ、傾斜角、中心点の算出が行うこと
が可能である形状であればよい。また、上記2つのマー
カは、色マーカや電球のように公知であるマーカを用い
て行うこともできる。
By mounting this marker at the connecting position of each part, the length of each part can be accurately calculated. It should be noted that the marker shape need not be a circle shape as long as it does not hinder the operation and can calculate the length, inclination angle, and center point of each part. Further, the above two markers can be performed by using known markers such as color markers and light bulbs.

【0027】図13は、マーカ装着と数値データ算出法
の概念図であり、(a)は、マーカを各部位の中心位置
に装着した例であり、(b)は、マーカを各部位の接続
関係にある部位に装着した例である。
FIG. 13 is a conceptual diagram of the marker attachment and the numerical data calculation method. FIG. 13A shows an example in which the marker is attached to the central position of each part, and FIG. 13B shows the connection of the marker to each part. It is an example of being attached to a related part.

【0028】[0028]

【数1】 [Equation 1]

【0029】ここで、(xi ,yi ),(xj ,yj )
は、接続関係にある部位のマーカの位置であり、(x,
y)は、各部位の中心点、θは、各部位のなす傾斜角、
aは、各部位の長さを表す。
Here, (xi, yi), (xj, yj)
Is the position of the marker of the part having the connection relation, and (x,
y) is the center point of each part, θ is the inclination angle formed by each part,
a represents the length of each part.

【0030】また、算出された数値データは、全て格納
してもよいし、対象となる動作に周期性がある場合、動
作の周期成分を抽出し、一周期分のみ格納してもよい。
また、対象となる動作の理論的な数値データは時間に対
応させて、図14に示すようなテーブルとして保存して
もよいし、各数値データを各部位ごとに補間関数により
数式化して係数のみを保存してもよい。また、図3に示
すような存在可能領域として保存してもよい。
Further, all the calculated numerical data may be stored, or if the target motion has periodicity, the cyclic component of the motion may be extracted and stored for only one cycle.
The theoretical numerical data of the target motion may be stored as a table as shown in FIG. 14 corresponding to time, or each numerical data may be mathematically expressed by an interpolation function for each part and only the coefficient may be stored. May be saved. Further, it may be stored as a possible area as shown in FIG.

【0031】次に図15は、対象物モデル部6に格納さ
れている各数値データを各部位ごとに補間関数により数
式化して格納する概念を示す。図15(a)に示すよう
に、格納された時刻i−1,i,i+1の各数値データ
から微分値(差分値)を算出する。
Next, FIG. 15 shows a concept of storing each numerical data stored in the object model unit 6 as a mathematical expression by an interpolation function for each site. As shown in FIG. 15A, a differential value (difference value) is calculated from the stored numerical data at time points i-1, i, i + 1.

【0032】そして図15(b)に示すように、この微
分値の変動が所定の閾値以上になる点を節点とする。抽
出された節点間をスプライン関数などで補間を行い、算
出された係数のみを格納とておく。スプライン関数に関
しては例えば、「スプライン関数入門」(電機大出版
局)などに記載されている。なお節点は、時刻i−1,
i,i+1の各数値データの2次微分値の変曲点として
もよい。変曲点を節点とすることにより、数値データの
変化が小さい運動についても節点を抽出することができ
る。
Then, as shown in FIG. 15B, points at which the variation of the differential value becomes equal to or more than a predetermined threshold value are set as nodes. The extracted nodes are interpolated with a spline function or the like, and only the calculated coefficients are stored. The spline function is described in, for example, "Introduction to Spline Function" (Denki University Press). The nodes are at time i-1,
It may be an inflection point of the second-order differential value of each numerical data of i and i + 1. By using the inflection point as a node, it is possible to extract the node even for a motion in which the numerical data change is small.

【0033】なお、対象となる部位の動作に周期性があ
る場合、その動作の周期成分を抽出し、一周期分の各部
位の論理的な(理論的な)数値データを格納してもよ
い。また、対象となる部位の動作の論理的な(理論的
な)数値データは、時間に対応させたテーブルの形態で
保存してもよい。また図3に示すような存在可能領域と
して保存してもよい。
When the motion of the target part has a periodicity, the cyclic component of the motion may be extracted and the logical (theoretical) numerical data of each part for one cycle may be stored. . Further, the logical (theoretical) numerical data of the operation of the target part may be stored in the form of a table corresponding to time. It may also be stored as a possible area as shown in FIG.

【0034】図3(b)に示すような歩行1周期におけ
る各部位の存在可能領域を理論的な数値データを基に以
下のように算出する。
The possible region of each part in one cycle of walking as shown in FIG. 3B is calculated as follows based on theoretical numerical data.

【0035】モデルの画像から対象物の領域(シルエッ
ト)を包含する矩形を公知である手法で、図3(a)の
ように抽出し、この矩形のx軸方向の中心線(中点)を
求める。この中心線を一致させるように、つまりx座標
を一致させるように各部位の理論的な数値データ(中心
点)を重ね合わせる。
A rectangle including the area (silhouette) of the object is extracted from the image of the model by a known method as shown in FIG. 3A, and the center line (midpoint) of this rectangle in the x-axis direction is extracted. Ask. The theoretical numerical data (center points) of the respective parts are superposed so that the center lines coincide with each other, that is, the x coordinates coincide with each other.

【0036】これにより図3(b)の黒点で示す各部位
の中心点の分布を求めることができる。この中心点の分
布を包含する領域、つまり、各部位の中心点が存在可能
な領域として存在可能領域を定める。この存在可能領域
は、幾何学的な形状である楕円や半円のパラメータの組
み合わせで記述する。
As a result, the distribution of the center points of the respective parts shown by the black dots in FIG. 3B can be obtained. An area that includes the distribution of the center points, that is, a possible area is defined as an area where the center points of the respective parts can exist. This possible area is described by a combination of parameters such as an ellipse and a semicircle that are geometric shapes.

【0037】具体的には、頭部と胴体部は、中心点の平
均値を中心とする楕円で示し、手部・上腕部・前腕部は
肩の位置を、大腿部・臑部・足部は腰の位置を中心とす
る円(扇形)の組み合わせで示している。肩・腰の位置
(xshoulder,yshoulder),(xwaist ,ywaist )
は(2)式で算出される。
Specifically, the head and the torso are indicated by ellipses centered on the average value of the center points, and the hand, upper arm, and forearm indicate the shoulder position, and the thigh, the knee, and the foot. The parts are shown as a combination of circles (fan-shaped) centered on the waist position. Shoulder / Waist position (xshoulder, yshoulder), (xwaist, ywaist)
Is calculated by the equation (2).

【0038】[0038]

【数2】 [Equation 2]

【0039】ここで、(x2 ,y2 )は上記で算出した
胴体部の中心点、a2 は胴体部の長さ、θ2 は胴体部の
傾斜角を示す。
Here, (x2, y2) is the center point of the body portion calculated above, a2 is the length of the body portion, and θ2 is the inclination angle of the body portion.

【0040】(3)式を用いて、手部・上腕部・前腕部
・大腿部・臑部・足部の中心点を包含するような幾何学
的な形状の算出を行う。
Using the equation (3), a geometrical shape including the center points of the hand, the upper arm, the forearm, the thigh, the knee, and the foot is calculated.

【0041】[0041]

【数3】 (Equation 3)

【0042】ただし、rは各部位の中心点を全て包含す
るような円の半径、phiは円周角を示す。図16は、
半径rや円周角phiの算出方法の説明図である。これ
らは円の中心点((xshoulder,yshoulder)または
(xwaist ,ywaist ))と各部位の全中心点との距離
と角度を例えば(4)式のように算出する。
Here, r is the radius of a circle that includes all the center points of the respective parts, and phi is the circumferential angle. 16
It is explanatory drawing of the calculation method of the radius r and the circumference angle phi. For these, the distance and angle between the center point ((xshoulder, yshoulder) or (xwaist, ywaist)) of the circle and all the center points of each part are calculated, for example, as shown in equation (4).

【0043】[0043]

【数4】 [Equation 4]

【0044】ここで、x03は、時刻0、部位番号3のx
座標を示し、r0 ,phi0 は腰の位置から部位番号3
である大腿部までの距離、角度を示す。この計算を解析
を行う全ての時刻に対して行い、ri ,phii の最大
・最小の値からrmax ,rmin,phimax ,phimin
を自動的に求めることができる。この操作を各部位に
関して行う。
Here, x03 is x at time 0 and part number 3
The coordinates are shown, and r0 and phi0 are the part number 3 from the waist position.
Shows the distance and angle to the thigh. This calculation is performed for all times of analysis, and the maximum and minimum values of r i and p h i are calculated from r max, r min, p i max, p h min
Can be automatically calculated. This operation is performed for each part.

【0045】求められた図3(b)に示す存在可能領域
は画像として格納するのではなく、半径rや円周角ph
iや中心点(x,y)や回転角θや長軸・短軸の長さ
a,bのパラメータをテーブルとして格納しておく。処
理を行う際、このパラメータを用いて図3(b)に示す
画像として回復する。
The obtained possible existence area shown in FIG. 3 (b) is not stored as an image, but the radius r and the circumferential angle ph are stored.
Parameters such as i, center point (x, y), rotation angle θ, and major axis / minor axis lengths a and b are stored as a table. When processing is performed, the image is restored as an image shown in FIG. 3B using this parameter.

【0046】図4は、前述した整合部8の具体的な構成
を示すブロック図である。
FIG. 4 is a block diagram showing a specific configuration of the matching section 8 described above.

【0047】この整合部8において、形状生成部5と対
象物モデル部6の出力は、同期部21に転送される。同
期部21では、形状生成部5のシルエット画像群と対象
物モデル部6のモデルのパラメータ群から同期をとるた
めに、同じ動作となる時刻を複数個算出する。対象物モ
デル部6と同期部21の各出力は、周期校正部22に転
送される。本実施形態では、解折対象の動作に周期性が
あるものを前提としている。そこで、周期校正部22で
は、同期部21で算出された複数の同期時刻とから算出
される1周期にかかる時間と、対象物モデル部6の出力
であるモデルパラメータに予め含まれているモデルの1
周期にかかる時刻とに基づいて、モデルデータの周期の
校正を行う。形状生成部5と対象物モデル部6とパラメ
ータ算出部7と同期部21と周期校正部22はパラメー
タ修正部23に出力される。
In the matching section 8, the outputs of the shape generating section 5 and the object model section 6 are transferred to the synchronizing section 21. The synchronization unit 21 calculates a plurality of times at which the same operation is performed in order to synchronize with the silhouette image group of the shape generation unit 5 and the model parameter group of the object model unit 6. The outputs of the object model unit 6 and the synchronization unit 21 are transferred to the period calibration unit 22. In the present embodiment, it is premised that the operation to be folded has periodicity. Therefore, in the period calibrating unit 22, the time required for one period calculated from the plurality of synchronization times calculated by the synchronizing unit 21 and the model included in the model parameter output from the object model unit 6 in advance are calculated. 1
The cycle of model data is calibrated based on the time taken for the cycle. The shape generation unit 5, the object model unit 6, the parameter calculation unit 7, the synchronization unit 21, and the period calibration unit 22 are output to the parameter correction unit 23.

【0048】このパラメータ修正部23では、一画像内
でモデルとの対比による時系列画像のパラメータの修正
を行う。形状生成部5と対象物モデル部6とパラメータ
算出部7とパラメータ修正部23の出力は、最適化処理
部24に転送する。最適化処理部24では、パラメータ
算出部7により算出されたパラメータ群全体を周期校正
された対象物モデル部6のパラメータ群全体および形状
生成部5のシルエット画像群に整合される。
The parameter correction unit 23 corrects the parameters of the time-series image by comparing with the model in one image. The outputs of the shape generation unit 5, the object model unit 6, the parameter calculation unit 7, and the parameter correction unit 23 are transferred to the optimization processing unit 24. In the optimization processing unit 24, the entire parameter group calculated by the parameter calculation unit 7 is matched with the entire parameter group of the object model unit 6 and the silhouette image group of the shape generation unit 5 which are periodically calibrated.

【0049】図5は、同期部21の処理における概念図
である。同期部21では、時刻timeにおけるモデル
の位置や傾斜角のパラメータを用いて単純な幾何学的形
状の一例として楕円を生成し、時系列画像中の対象物の
シルエット画像群とのマッチングを行う。マッチング誤
差が最小となるシルエット画像の時刻が、モデルにおけ
る時刻timeに相当することになる。
FIG. 5 is a conceptual diagram of the processing of the synchronization unit 21. The synchronization unit 21 generates an ellipse as an example of a simple geometrical shape using the parameters of the model position and the tilt angle at the time time, and performs matching with the silhouette image group of the target object in the time-series image. The time of the silhouette image at which the matching error becomes the minimum corresponds to the time time in the model.

【0050】上記同期部21について、対象物が人間で
ある場合の具体的な例を、図17に示すフローチャート
を参照して説明する。
A concrete example of the synchronizing unit 21 when the object is a human will be described with reference to the flowchart shown in FIG.

【0051】まず、モデルから基準動作であるclos
e状態(手足が閉じている状態)の時刻crossの算
出を行う(ステップS1)。図18はclose状態の
算出方法の概念図である。基準動作close状態の時
刻の算出方法は、対象物モデル部6に格納されているモ
デルのパラメータをスプライン関数から算出し、全ての
時刻に関して頭部(部位の番号0)と他の部位群とのx
座標の差の総和を算出する。この総和が一番小さくなる
時刻がcrossとなる。図5は同期時刻timeの算
出方法の概念図である。
First, from the model, the reference motion, "close", is generated.
The time cross in the state e (the state where the limbs are closed) is calculated (step S1). FIG. 18 is a conceptual diagram of a method of calculating the close state. The method of calculating the time of the reference motion close state is to calculate the parameters of the model stored in the object model unit 6 from the spline function, and calculate the head (part number 0) and other part groups at all times. x
Calculate the sum of the coordinate differences. The time when this sum becomes the smallest is cross. FIG. 5 is a conceptual diagram of a method of calculating the synchronization time time.

【0052】次に、時刻crossのモデルのパラメー
タを用いて時刻crossのモデルの楕円画像を生成す
る(ステップS2)。この時刻crossのモデルのシ
ルエット画像と時刻timeの時系列画像のシルエット
画像を包含する外接四辺形を公知である手法で抽出し、
この外接四辺形のx軸方向の中心線を一致させる。時系
列画像のシルエット画像とモデルの楕円画像との面積差
を算出する。
Next, the ellipse image of the model at time cross is generated using the parameters of the model at time cross (step S2). A circumscribed quadrilateral including the silhouette image of the model at the time cross and the silhouette image of the time series image at the time time is extracted by a known method,
The center lines of the circumscribed quadrilateral in the x-axis direction are made to coincide with each other. The area difference between the silhouette image of the time series image and the ellipse image of the model is calculated.

【0053】全ての時刻の時系列画像のシルエット画像
との面積差を算出し、面積差が最小である時刻peri
odが時刻crossと同動作を行う時刻である(ステ
ップS3)。
The area differences between the time-series images at all times and the silhouette image are calculated, and the time peri at which the area difference is the minimum is calculated.
This is the time when od performs the same operation as the time cross (step S3).

【0054】以上のように、モデルのclose状態の
楕円画像と時系列画像中の対象物のシルエット画像群と
のマッチングを行うことで、モデルと時系列画像との同
期をとることができる。
As described above, the model and the time-series image can be synchronized by matching the close-state elliptic image of the model with the silhouette image group of the object in the time-series image.

【0055】また、以下のような方法でも同期時刻を算
出することも可能である。対象物モデル部6に格納され
ているモデルのシルエット画像群と時系列画像のシルエ
ット画像群の面積の最小(又は最大)となる時刻を複数
個算出する。算出された時刻がモデルと時系列画像の同
期の時刻となる。例えば、人間の歩行動作を解析対象と
した場合、シルエット画像の面積が最小となるときは、
ほぼ直立した状態を示している。ここで、モデルと時系
列画像のシルエットの面積最小時刻を算出するというこ
とは、直立状態の時刻の同期をとっていることになる。
このようにすることで、楕円画像を生成する必要がなく
なるので、処理時間を短縮することができる。
The synchronization time can also be calculated by the following method. A plurality of times at which the area of the silhouette image group of the model stored in the object model unit 6 and the area of the silhouette image group of the time-series images are minimum (or maximum) are calculated. The calculated time is the time of synchronization between the model and the time series image. For example, when human walking is analyzed, when the area of the silhouette image is the minimum,
It shows a nearly upright state. Here, the calculation of the minimum area time of the model and the silhouette of the time-series image means that the time in the upright state is synchronized.
By doing so, it is not necessary to generate an elliptical image, and thus the processing time can be shortened.

【0056】図6と図20は、周期校正部22の処理に
おける概念を示す。周期校正部22は、対象となる動作
に周期性がある場合のみ行われる。同期部21により算
出された複数の同期の時刻により、一周期にかかる時間
Tの算出を行う。対象物モデル部6に格納されているモ
デルの一周期にかかる時間MT と時系列画像の一周期に
かかる時間Tとの比ra =MT /Tを求め、この比ra
を用いてモデルの周期の校正を行う。
6 and 20 show the concept of the process of the period calibrating unit 22. The period calibration unit 22 is performed only when the target operation has periodicity. The time T required for one cycle is calculated based on the plurality of synchronization times calculated by the synchronization unit 21. The ratio ra = MT / T between the time MT required for one cycle of the model stored in the object model unit 6 and the time T required for one cycle of the time series image is calculated, and this ratio ra is obtained.
Calibrate the cycle of the model using.

【0057】図19に示すフローチャートを参照して、
周期校正部22について説明する。対象物モデル部6に
格納してあるモデルの一周期分の動作の時刻MT とし、
同期部21により算出された複数の同期の時刻により、
一周期にかかる時間Tの算出を行う(ステップS1
1)。モデルの一周期にかかる時間MT と時系列画像の
一周期にかかる時間Tとの比ra =MT /Tを求め(ス
テップS12)、この比ra を用いてパラメータ修正部
23でモデルの周期の校正を行う。この処理は、一周期
単位で行われる。このため対象物の動作が周期が増すご
とに加速するような状況にも対応できる。これは動作の
数値データをスプライン関数の係数として保存している
ため、任意の時刻の数値データが算出できるためであ
る。
Referring to the flow chart shown in FIG.
The period calibration unit 22 will be described. As the time MT of one cycle of the model stored in the object model unit 6,
According to the plurality of synchronization times calculated by the synchronization unit 21,
The time T required for one cycle is calculated (step S1
1). A ratio ra = MT / T between the time MT required for one cycle of the model and the time T required for one cycle of the time series image is obtained (step S12), and the parameter correction unit 23 calibrates the cycle of the model using this ratio ra. I do. This process is performed on a cycle-by-cycle basis. Therefore, it is possible to deal with a situation in which the motion of the object accelerates as the cycle increases. This is because the numerical data of the motion is stored as the coefficient of the spline function, so that the numerical data at any time can be calculated.

【0058】図7は、パラメータ修正部23の処理にお
ける概念図である。パラメータ修正部23では、時系列
画像の時刻timeの各部位のパラメータと時刻tim
eに対応するモデルの各部位のパラメータの差の算出を
行う。パラメータ算出部7で算出された許容範囲εを閾
値とする。各パラメータ間の差が所定の閾値以上である
とき、時系列画像のパラメータをモデルのパラメータに
置換し、例えば単純な幾何学的形状の一例として楕円を
生成し、シルエット画像との誤差の算出を行う。算出さ
れた誤差が置換前より増加した場合、パラメータの置換
は破棄される。上記過程を各パラメータに対して行い、
画像内でのパラメータの修正を行う。
FIG. 7 is a conceptual diagram in the processing of the parameter correction unit 23. In the parameter correction unit 23, the parameters of each part at the time time of the time-series image and the time tim.
The difference between the parameters of each part of the model corresponding to e is calculated. The allowable range ε calculated by the parameter calculation unit 7 is used as a threshold. When the difference between each parameter is equal to or greater than a predetermined threshold value, the parameters of the time series image are replaced with the parameters of the model, and for example, an ellipse is generated as an example of a simple geometrical shape, and the error with the silhouette image is calculated. To do. If the calculated error is greater than before replacement, the parameter replacement is discarded. Repeat the above process for each parameter,
Modify the parameters in the image.

【0059】図21に示すフローチャートを参照して、
パラメータ修正部23について説明する。
Referring to the flow chart shown in FIG. 21,
The parameter correction unit 23 will be described.

【0060】モデルの対象物と時系列画像の対象物の大
きさの比率の算出を行う(ステップS21)。対象物モ
デル部6に格納してあるモデルの対象物の高さ方向の大
きさをmhとし、時系列画像の対象物(シルエット画
像)を包含する外接四辺形を算出し、高さ方向の大きさ
hを算出する。これを用いてモデルと時系列画像の対象
物の大きさの比率scale=mh/hを算出する。対
象物の各部位の中心位置を比率scale倍して位置の
修正を行った後、以下の処理を行う。
The size ratio of the object of the model and the object of the time series image is calculated (step S21). The size in the height direction of the object of the model stored in the object model unit 6 is mh, and the circumscribed quadrilateral including the object (silhouette image) of the time series image is calculated, and the size in the height direction is calculated. Calculate h. Using this, the ratio of the sizes of the model and the object of the time series image, scale = mh / h, is calculated. After the center position of each part of the object is multiplied by the ratio scale to correct the position, the following processing is performed.

【0061】周期校正部22で算出した比率ra を用い
て時系列画像に対応するモデルの時刻の算出を行う(ス
テップS22)。モデルの時刻を比率ra 倍し、時系列
画像の時刻がra 倍されたモデルの一周期分の時刻を越
えていたら、越えた分だけモデルの始め時刻に対応する
ように合わせる。
The time of the model corresponding to the time series image is calculated using the ratio ra calculated by the period calibrating unit 22 (step S22). The time of the model is multiplied by the ratio ra, and if the time of the time series image exceeds the time of one cycle of the model multiplied by ra, the time is adjusted so as to correspond to the start time of the model.

【0062】時刻timeの初期設定を行う(ステップ
S23)。時刻の同期がとれたら時刻timeの時系列
画像のパラメータから楕円画像を生成する(ステップS
24)。時刻timeの時系列画像のシルエット画像と
楕円画像との面積差を算出し、diff1に格納する
(ステップS25)。
Initialization of time time is performed (step S23). When the time is synchronized, an elliptic image is generated from the parameters of the time-series image at time time (step S).
24). The area difference between the silhouette image and the elliptical image of the time-series image at the time time is calculated and stored in diff1 (step S25).

【0063】同期処理を行った時刻timeに対応する
時刻のモデルのパラメータをスプライン関数から算出
し、時刻timeに対応する時刻のモデルと時系列画像
のパラメータの差の絶対値の算出を各部位毎に行う(ス
テップS26)。差の絶対値をパラメータ算出部7で算
出された許容範囲εと比較し(ステップS27)、小さ
ければ(NO)ステップS28に移行し、時刻time
のインクリメントを行い、ステップS24に戻る。
The parameters of the model at the time corresponding to the time time at which the synchronization processing is performed are calculated from the spline function, and the absolute value of the difference between the parameters of the time model corresponding to the time time and the parameters of the time series image is calculated for each part. (Step S26). The absolute value of the difference is compared with the allowable range ε calculated by the parameter calculation unit 7 (step S27), and if the difference is small (NO), the process proceeds to step S28, and time is time.
Is incremented and the process returns to step S24.

【0064】しかし、ステップS27で大きければ(Y
ES)、モデルと時系列画像のパラメータの入れ替えを
各部位毎に行う(ステップS29)。時系列画像の対象
物とモデルの対象物の位置が異なるため、シルエット画
像を利用して、位置合わせを行い、パラメータの入れ替
えを直接行うようにする。時刻timeの時系列画像の
シルエット画像とそれに対応するモデルのシルエット画
像を包含する外接四辺形を抽出し、外接四辺形のx軸方
向の中心線を一致させる。つまり、外接四辺形の中心の
x座標を一致させるためのモデルの移動量を算出し、こ
の移動量をもとにモデルのパラメータの修正を行い、入
れ替えを行う。
However, if larger in step S27 (Y
ES), the parameters of the model and the time series image are exchanged for each part (step S29). Since the positions of the target object of the time-series image and the target object of the model are different, the silhouette image is used to perform the position adjustment and the parameter replacement is directly performed. A circumscribed quadrilateral including the silhouette image of the time-series image at time time and the silhouette image of the model corresponding thereto is extracted, and the center lines of the circumscribed quadrilateral in the x-axis direction are matched. That is, the amount of movement of the model for matching the x-coordinate of the center of the circumscribed quadrangle is calculated, and the parameters of the model are corrected and replaced based on this amount of movement.

【0065】入れ替えたパラメータから楕円画像の生成
を行い(ステップS30)、ステップS25と同様にス
テップS30で生成した楕円画像とシルエット画像の面
積差を算出し、diff2に格納する(ステップS3
1)。パラメータ入れ替え前の面積差diff1と入れ
替え後の面積差diff2を比較し(ステップS3
2)。diff2がdiff1より大きい場合(N
O)、ステップS28に戻り、時刻timeのインクリ
メントを行い、ステップS24に戻る。小さい場合(Y
ES)、パラメータの入れ替えを破棄する(ステップS
33)。ステップS24からステップS33は、全ての
部位に対してまとめて処理を行う。時刻timeと時系
列画像の終了時刻を比較し、時刻timeが終了時刻よ
り小さい場合(NO)ステップS28に戻り、時刻ti
meのインクリメントを行い、ステップS24に戻る。
大きい場合(YES)処理を終了する。
An elliptic image is generated from the replaced parameters (step S30), and the area difference between the elliptic image and the silhouette image generated in step S30 is calculated as in step S25 and stored in diff2 (step S3).
1). The area difference diff1 before the parameter replacement is compared with the area difference diff2 after the parameter replacement (step S3).
2). If diff2 is greater than diff1 (N
O), the process returns to step S28, the time time is incremented, and the process returns to step S24. If small (Y
ES), discard the exchange of parameters (step S
33). In steps S24 to S33, all the parts are collectively processed. The time time is compared with the end time of the time series image, and when the time time is smaller than the end time (NO), the process returns to step S28 and the time ti
The me is incremented, and the process returns to step S24.
If it is larger (YES), the process ends.

【0066】図8は、最適化処理部24の処理における
概念図である。上記パラメータ算出部7で算出された時
系列画像のパラメータ群、対象物モデル部6のモデルの
パラメータ群と形状生成部5で生成されたシルエット画
像群の三者を整合する。このための手法の一例として評
価関数を設定し、最小化する。例えば人間を対象とした
解析の場合、(5)式のように評価関数ET 定義し、評
価関数ET をアニーリングや最急降下法などを用いて最
小化することにより、時系列画像のパラメータ群の最適
なパラメータの算出を行う。
FIG. 8 is a conceptual diagram of the processing of the optimization processing section 24. The parameter group of the time-series image calculated by the parameter calculation unit 7, the parameter group of the model of the object model unit 6 and the silhouette image group generated by the shape generation unit 5 are matched. As an example of a method for this, an evaluation function is set and minimized. For example, in the case of analysis targeting human beings, the evaluation function ET is defined as shown in equation (5), and the evaluation function ET is minimized by using annealing or the steepest descent method. Various parameters are calculated.

【0067】[0067]

【数5】 (Equation 5)

【0068】ここで、Tは周期、i=T〜T+1は時
刻、j=1〜14は部位、l=1〜13は図2(b)に
示すような各部位の接続番号、Pmはモデルのパラメー
タ群、Pは時系列画像中の対象物の各部位のパラメータ
群である。第1項は対象物のパラメータをモデルのパラ
メータと整合させる。Silは時系列画像中の対象物の
シルエット画像、Parは時系列画像のパラメータによ
り生成した楕円画像であり、第2項は時系列画像のパラ
メータをシルエット画像に整合させる。
Here, T is a cycle, i = T to T + 1 is time, j = 1 to 14 is a part, l = 1 to 13 is a connection number of each part as shown in FIG. 2B, and Pm is a model. , P is a parameter group of each part of the object in the time-series image. The first term matches the parameters of the object with those of the model. Sil is a silhouette image of the object in the time series image, Par is an elliptical image generated from the parameters of the time series image, and the second term matches the parameters of the time series image with the silhouette image.

【0069】Lm及びLは、図2(b)に示される13
組の接続関係にある部位の中心点間の距離である。つま
り頭部と胴体部などの結合関係にある部位の中心位置間
の距離である。Lmはモデルに関する各部位の中心点間
の距離、Lは時系列画像中に関する各部位の中心点間の
距離を表す。第三項は、時系列画像中の対象物の各部位
間のパラメータの結合関係をモデルの結合関係に整合さ
せる。kは、それぞれの項のウエイトである。
Lm and L are 13 shown in FIG. 2 (b).
It is the distance between the center points of the parts having the connection relation of the set. In other words, it is the distance between the center positions of the parts such as the head part and the body part that are in a connection relationship. Lm represents the distance between the center points of the respective parts related to the model, and L represents the distance between the center points of the respective parts related to the time series image. The third term matches the connection relationship of the parameters between the respective parts of the object in the time-series image with the connection relationship of the model. k is the weight of each term.

【0070】なお、(6)式のような評価関数ET をア
ニーリングや最急降下法などを用いて時系列画像のパラ
メータ群の最適なパラメータの算出を行うことも可能で
ある。
It is also possible to calculate the optimum parameters of the parameter group of the time-series image by using the evaluation function ET as in the equation (6) by annealing or the steepest descent method.

【0071】[0071]

【数6】 (Equation 6)

【0072】ここで、Tは周期、i=T〜T+1は時
刻、j=1〜14は部位、l=1〜13は図2(b)に
示すような各部位の接続番号。Pmはモデルのパラメー
タ群、Pは時系列画像中の対象物の各部位のパラメータ
群である。第一項は対象物のパラメータをモデルのパラ
メータと整合させる。Silは時系列画像中の対象物の
シルエット画像、Parはモデルのパラメータにより生
成した楕円画像であり、第二項はモデルのパラメータを
シルエット画像に整合させる。Lm及びLは、図2
(b)に示される13組の結合関係にある中心点間の距
離である。つまり、頭部と胴体部などの結合関係にある
部位の中心位置間の距離である。Lmはモデルに関する
各部位の中心点間の距離、Lは時系列画像中に関する各
部位の中心点間の距離を表す。第三項は、時系列画像中
の対象物の各部位間のパラメータの結合関係をモデルの
結合関係に整合させる。Pcは時刻i−2,i−1,
i,i+1,i+2の時系列画像のパラメータに、重み
をそれぞれ1:2:3:2:1だけ与え、平均値を算出
した値であり、第四項は、時系列画像のパラメータを前
後の時刻から推測されるパラメータ値に整合させる。k
は、各項に対するウエイトである。
Here, T is a cycle, i = T to T + 1 is time, j = 1 to 14 is a part, and l = 1 to 13 is a connection number of each part as shown in FIG. 2B. Pm is a parameter group of the model, and P is a parameter group of each part of the object in the time series image. The first term matches the parameters of the object with those of the model. Sil is a silhouette image of the object in the time-series images, Par is an elliptical image generated from the model parameters, and the second term matches the model parameters to the silhouette images. Lm and L are shown in FIG.
It is the distance between the center points in the 13 sets of connection relationships shown in (b). In other words, it is the distance between the center positions of the parts having a coupling relationship such as the head and the body. Lm represents the distance between the center points of the respective parts related to the model, and L represents the distance between the center points of the respective parts related to the time series image. The third term matches the connection relationship of the parameters between the respective parts of the object in the time-series image with the connection relationship of the model. Pc is time i-2, i-1,
The weights of 1: 2: 3: 2: 1 are respectively given to the parameters of the time series images of i, i + 1, and i + 2, and the average value is calculated. Match the parameter value estimated from the time. k
Is the weight for each term.

【0073】上記3者の整合をとり、時系列画像のパラ
メータ群の最適なパラメータの算出をアニーリングを利
用して行う方法を以下に示す。図22に示すフローチャ
ートを参照して、最適化処理部24を説明する。
A method for calculating the optimum parameters of the parameter group of the time-series image by utilizing the annealing by matching the above three parties will be described below. The optimization processing unit 24 will be described with reference to the flowchart shown in FIG.

【0074】まず、温度Tempint と反復回数nの初
期設定を行う(ステップS41)。iteration
とTempの初期設定を行う(ステップS42)。初期
エネルギーinit engの算出を行う(ステップS
43)。
First, the temperature Tempint and the number of iterations n are initialized (step S41). iteration
And Temp are initialized (step S42). Initial energy init eng is calculated (step S
43).

【0075】初期エネルギーは、(5)式や(6)式の
評価関数を計算した結果を表す。乱数ranを発生さ
せ、微小変化を与える値gとパラメータの種類xyrと
時刻timeと部位番号pを決定する(ステップS4
4)。例えば、0〜1までの乱数を発生せた場合の各パ
ラメータは、 time=ran×画像の枚数 xyr=ran×3 (xyr=1の時x,xyr=2
の時y,xyr=3の時rad) p=ran×14 g=部位番号pの部位の長さ×(ran×2.1−1.
0) として与えられる。
The initial energy represents the result of calculating the evaluation function of the equations (5) and (6). A random number ran is generated to determine a value g that gives a minute change, a parameter type xyr, a time time, and a site number p (step S4).
4). For example, each parameter when a random number from 0 to 1 is generated is: time = ran × number of images xyr = ran × 3 (xxy = 1, x, xyr = 2)
When y, xyr = 3, rad) p = ran × 14 g = length of site of site number p × (ran × 2.1-1.
0) is given.

【0076】時刻timeの時系列画像のパラメータx
yr[time][p]に微小変化gを与える(ステッ
プS45)。微小変化を与えたパラメータを用いてエネ
ルギーengの算出を行う(ステップS46)。初期エ
ネルギーinit engとエネルギーengを比較し
(ステップS47)、init engがengより大
きいならば(NO)、ステップS48に移行し、乱数r
anとexp[(eng−init eng)/Tem
p]を比較し、条件を満たさないならば(NO)、ステ
ップS44に戻り、新たな乱数ranを発生させる。
Parameter x of the time-series image at time time
A small change g is given to yr [time] [p] (step S45). The energy eng is calculated using the parameter that has been slightly changed (step S46). Initial energy init eng and energy eng are compared (step S47), and init If eng is larger than eng (NO), the process proceeds to step S48 and the random number r
an and exp [(eng-init eng) / Tem
p] is compared, and if the condition is not satisfied (NO), the process returns to step S44 and a new random number ran is generated.

【0077】またステップS48又はステップS47の
条件を満たすならば(YES)、この微小変化を受け入
れ、パラメータ値の更新を行い、エネルギーの値の入れ
替えを行う(init eng=eng)(ステップS
49)。
If the condition of step S48 or step S47 is satisfied (YES), this minute change is accepted, the parameter value is updated, and the energy value is exchanged (init). eng = eng) (step S
49).

【0078】反復回数iterationが初期値nよ
り小さいか否か判断し(ステップS50)、条件を満た
す場合(YES)、温度を下げ、反復回数iterat
ionを更新した後(ステップS51)、ステップS4
4に戻り、新たな乱数ranを発生させる。しかし条件
を満たさない場合には(NO)、最適化処理を終了す
る。
It is judged whether or not the iteration count iteration is smaller than the initial value n (step S50), and if the condition is satisfied (YES), the temperature is lowered and the iteration count iterat is reached.
After updating ion (step S51), step S4
Returning to 4, a new random number ran is generated. However, if the condition is not satisfied (NO), the optimization process ends.

【0079】また最適化処理を行うにあたって、条件に
よっては本来接続している部位、例えば手部と前腕部と
が離れてしまうことがある。これを防ぐために、各部位
のパラメータに与える微小変化の範囲を限定し、各部位
の分離を防止する方法を説明する。各部位の分離を防止
するために、従来不変としてきた長軸,短軸の長さを適
応的に調節するモデルを付加する。具体的には、最適化
処理で微小変化を与える時に分離を防止するような制限
を設ける。
In performing the optimization process, the originally connected parts, for example, the hand part and the forearm part may be separated from each other depending on the conditions. In order to prevent this, a method of limiting the range of minute changes given to the parameters of each part and preventing separation of each part will be described. In order to prevent the separation of each part, a model that adaptively adjusts the length of the long axis and the short axis, which has been invariant in the past, is added. Specifically, a limitation is set to prevent separation when a small change is given in the optimization process.

【0080】各部位の中心座標に微小変化を与える場合
を考える。
Consider a case where a slight change is given to the center coordinates of each part.

【0081】この段階では所定の長さの長軸で結合して
いることを仮定する。微小変化を与える注目部位とそれ
に連結している部位の長軸の長さを所定長だけ延長す
る。延長した長軸を半径とする円を考える。この円が分
離しないよう、つまり常に接する、または交差するよう
に注目している部位の円を移動する。
At this stage, it is assumed that the long axes of a predetermined length are connected. The length of the major axis of the site of interest that gives a minute change and the site connected to it is extended by a predetermined length. Consider a circle whose radius is the extended major axis. Move the circle of the part of interest so that the circles do not separate, that is, always touch or intersect.

【0082】このときの中心座標が描く軌跡が、結合を
維持したままで微小変化を与えられる領域となる。図2
3は、対象物が人間である場合の各部位の分離防止に関
する概念図である。図23をもとに人間の場合について
具体的に説明する。例えば、手部と上腕部に結合してい
る前腕部の中心座標に微小変化を与える場合を考える。
この段階では所定の長さの長軸で結合していることを仮
定する。手部,上腕部,前腕部の長軸の長さを所定長
(例えば10%)延長し、この3つの円が分離しないよ
う、前腕部の(10%膨張した)円を移動する。
The locus drawn by the central coordinates at this time is an area where a minute change can be given while maintaining the coupling. Figure 2
FIG. 3 is a conceptual diagram regarding prevention of separation of each part when the object is a human. A case of a human will be specifically described based on FIG. For example, consider a case where a minute change is given to the center coordinates of the forearm connected to the hand and the upper arm.
At this stage, it is assumed that they are connected by a long axis having a predetermined length. The lengths of the long axes of the hand, upper arm, and forearm are extended by a predetermined length (for example, 10%), and the circle of the forearm (expanded by 10%) is moved so that these three circles are not separated.

【0083】このときの中心座標が描く軌跡が、結合を
維持したままで微小変化を与えられる領域となる。ただ
し、端点の注目部位とそれと連結する部位が分離しない
ような円の移動は、モデルに基づき各関節間の移動可能
範囲角度を越えないように行う。なお、長軸と同じ比率
だけ短軸を調整することで、プロポーションを一定に保
つことができる。
The locus drawn by the central coordinates at this time is an area where a minute change can be given while maintaining the coupling. However, the movement of the circle that does not separate the target portion of the end point and the portion connected to it is performed so as not to exceed the movable range angle between the joints based on the model. By adjusting the short axis by the same ratio as the long axis, the proportion can be kept constant.

【0084】以上のように行うことで、微小変化の付与
を限定することになるので、最適化処理を高速化でき、
各部位の分離を防止することができる。
By carrying out the above-mentioned operation, since the application of the minute change is limited, the optimization processing can be speeded up,
It is possible to prevent separation of each part.

【0085】また、本発明は関節がパーツでつながれた
動体、例えば多関節ロボットや動物などの動きの解析も
同様な方法で行うことが可能である。例えば、多関節ロ
ボットの動きの解析を行う場合、以下のように行う。ロ
ボットに関する形状の知識(大きさ・接続関係)と関数
化された各部位の動作の知識と各部位の存在可能領域を
ロボットの動きの知識として格納する。
Further, according to the present invention, the motion of a moving body whose joints are connected by parts, such as an articulated robot or an animal, can be analyzed by the same method. For example, when analyzing the motion of an articulated robot, the following is performed. The knowledge of the shape of the robot (size / connection relationship), the knowledge of the motion of each part functionalized, and the possible existence area of each part are stored as the knowledge of the motion of the robot.

【0086】背景画像と入力画像との差をとり、シルエ
ット画像を抽出する。シルエット画像と存在可能領域と
のAND処理を行うことにより、各部位の概略的なパラ
メータの算出を行う。このパラメータをモデルを用いて
修正し、最適化処理を行う。この手法により、ロボット
の動きを解析し、これをもとに最適化することができ
る。
The silhouette image is extracted by calculating the difference between the background image and the input image. By performing the AND process of the silhouette image and the possible area, the rough parameters of each part are calculated. This parameter is corrected using the model, and the optimization process is performed. By this method, the movement of the robot can be analyzed and optimized based on this.

【0087】また、形状生成部5のシルエット画像を用
いない最適化も考えられる。
Further, optimization without using the silhouette image of the shape generator 5 is also conceivable.

【0088】一例として、以下のような判定基準が挙げ
られる。モデルのパラメータ群と時系列画像中の対象物
の各部位のパラメータ群の差がある閾値以下であり、且
つ、時間的に前後の画像の同部位のパラメータと時系列
画像中の対象物の各部位のパラメータ群の差がある閾値
以下ならば、置換しないものとする。
As an example, the following judgment criteria can be mentioned. The difference between the parameter group of the model and the parameter group of each part of the target object in the time-series image is less than or equal to a threshold value, and the parameters of the same part in temporally previous and subsequent images and each target object in the time-series image If the difference between the parameter groups of the parts is less than or equal to a threshold value, the replacement is not performed.

【0089】そして整合部8で算出されたパラメータを
制御部11からの制御に基づき、画像生成部12に出力
する。上記画像生成部12では、整合部8で算出された
パラメータに基づいて、例えば、楕円を生成し、各部位
のパラメータの画像化を行う。ただし、楕円ではなく、
線分や円柱などで画像化を行ってもよい。上記画像生成
部12にて画像化された解析結果の出力をD/A部9に
転送し、アナログ信号に変換する。さらに制御部11か
らの信号に基づき、上記アナログ信号をディスプレイな
どの出力部10へ出力し、画像解析結果をディスプレイ
などで表示する。すなわち、図9(a)に示すような時
系列画像に関して、図9(b)に示す解析結果が得られ
る。
The parameters calculated by the matching unit 8 are output to the image generation unit 12 under the control of the control unit 11. The image generation unit 12 generates, for example, an ellipse based on the parameters calculated by the matching unit 8 and images the parameters of each part. However, instead of an ellipse,
Imaging may be performed with a line segment or a cylinder. The output of the analysis result imaged by the image generation unit 12 is transferred to the D / A unit 9 and converted into an analog signal. Further, based on the signal from the control unit 11, the analog signal is output to the output unit 10 such as a display and the image analysis result is displayed on the display or the like. That is, the analysis result shown in FIG. 9B is obtained for the time series image shown in FIG. 9A.

【0090】以上のような時系列画像解析装置は、対象
物の動作のパラメータを数式化することで情報量を削減
でき、モデルの各部位のサイズや位置を校正することで
多くの被写体に適用でき、撮影距離の差によるサイズの
違いも補正できる。また、遮蔽や影の影響により対象物
の形状や動作が正確にとらえられなかった場合に、対象
物の形状や動作による形状変化の知識を用いて補正を行
い、対象物の動作を高精度に解析することができる。ま
た、周期性を利用することにより、モデルの情報量を削
減することができ、周期を校正することで同じ動作で速
度が異なる場合にも対応することができる。
The time-series image analysis device as described above can reduce the amount of information by formulating the motion parameters of the object, and can be applied to many subjects by calibrating the size and position of each part of the model. Yes, you can correct the difference in size due to the difference in shooting distance. In addition, if the shape or motion of an object cannot be accurately captured due to the effect of occlusion or shadow, correction is performed using the knowledge of the shape change due to the shape or motion of the object, and the motion of the object can be performed with high accuracy. Can be analyzed. Further, by utilizing the periodicity, the information amount of the model can be reduced, and by calibrating the period, it is possible to deal with the case where the speed is different in the same operation.

【0091】以上の説明では、同期部21において同期
する時刻を決定して動きのマッチングを行うものとした
が、この処理を省略し、時系列画像群とモデルパラメー
タ群との全ての組み合わせについて探索を行うようにし
てもよい。
In the above description, the synchronization unit 21 determines the synchronization time and performs the motion matching. However, this processing is omitted, and all combinations of the time series image group and the model parameter group are searched. May be performed.

【0092】また、周期校正部22において周期性のあ
る動作について周期の校正を行うものとしたが、この処
理は省略してもよい。また周期校正部22は、同期部2
1が省略されている場合に行われない。
Further, although the period calibrating unit 22 calibrates the period for the operation having the periodicity, this process may be omitted. In addition, the period calibration unit 22 includes the synchronization unit 2
Not performed if 1 is omitted.

【0093】また、パラメータ修正部23においてパラ
メータの修正を行うものとしたがこの処理は省略可能で
ある。また本実施形態では、各部位を表現する単純な幾
何学的形状として楕円を用いたが、線分や円柱などで記
述することもよい。
Although the parameter correction unit 23 corrects the parameters, this process can be omitted. Further, in the present embodiment, an ellipse is used as a simple geometrical shape expressing each part, but it may be described by a line segment or a cylinder.

【0094】次に第2実施形態の時系列画像解析装置に
ついて説明する。
Next, the time series image analysis device of the second embodiment will be described.

【0095】この第2実施形態の構成は、基本的には第
1実施形態と同等であり、ここでは異なる部分のみ説明
を行う。
The configuration of the second embodiment is basically the same as that of the first embodiment, and only different parts will be described here.

【0096】図10は、第2実施形態におけるパラメー
タ算出部7の具体的な構成例を示す。ここで、第1実施
形態と同等の構成部には第1実施形態の構成部と同じ参
照符号を付し、その説明を省略する。
FIG. 10 shows a concrete configuration example of the parameter calculation section 7 in the second embodiment. Here, the same components as those in the first embodiment are designated by the same reference numerals as those in the first embodiment, and the description thereof will be omitted.

【0097】このパラメータ算出部7は、形状生成部5
と対象物モデル部6からの出力が候補領域算出部31に
転送される。この候補領域算出部31の出力は、整合部
8に転送される。
The parameter calculation unit 7 includes a shape generation unit 5
The output from the target object model unit 6 is transferred to the candidate region calculation unit 31. The output of the candidate area calculation unit 31 is transferred to the matching unit 8.

【0098】最適化処理を高速に行うため、対象物の各
部位の位置や傾斜角のパラメータを概略的に算出を行う
ものである。
In order to perform the optimization process at high speed, the parameters of the position and inclination angle of each part of the object are roughly calculated.

【0099】時系列画像中の対象物の各部位の候補領域
を算出し、算出された候補領域と対象物の形状から候補
領域の結合関係を求め、結合関係にある領域群の各位置
や傾斜角のパラメータおよび各パラメータが存在する可
能な範囲の算出を行う。以降、各パラメータが存在する
可能な範囲を許容範囲という。
Candidate regions for each part of the object in the time-series image are calculated, the connection relation between the candidate regions is calculated from the shape of the calculated candidate region and the object, and each position or inclination of the region group having the connection relation is calculated. Calculation of the corner parameters and the possible range in which each parameter exists. Hereinafter, a possible range in which each parameter exists will be referred to as an allowable range.

【0100】図11は、時系列画像中の対象物の各部位
の候補領域の算出における概念を示す。パラメータの算
出方法について、図24のフローチャートを参照して、
候補領域算出部31を説明する。
FIG. 11 shows a concept in calculating a candidate area of each part of the object in the time-series image. Regarding the method of calculating the parameters, refer to the flowchart of FIG.
The candidate area calculation unit 31 will be described.

【0101】対象物モデル部6に格納されている各部位
の存在可能領域のパラメータ群を画像化する(ステップ
S51)。具体的には、対象物モデル部6に格納されて
いる幾何学的な形状である円や楕円などのパラメータ
(中心点・半径・回転角など)を用いて画像の生成を行
う。例えば、(3)式を満たす画素(x,y)には1
を、満たさない場合には、“0”を格納し、2値画像の
生成を行う。
The parameter group of the possible area of each part stored in the object model section 6 is imaged (step S51). Specifically, an image is generated using parameters (center point, radius, rotation angle, etc.) such as circles and ellipses that are geometrical shapes stored in the object model unit 6. For example, 1 is set to the pixel (x, y) that satisfies the expression (3).
If is not satisfied, “0” is stored and a binary image is generated.

【0102】次に図3のように画像化した存在可能領域
とシルエット画像を用いて各部位の候補領域の算出を行
う(ステップS52)。図11(b)に示すシルエット
画像に外接する矩形を求め、この矩形の中心線を求めて
おく。また、ステップS52で画像化された存在可能領
域に外接する矩形から中心線の位置を算出し、両者の中
心線を一致させた形でAND出力を求める。
Next, the candidate area of each part is calculated using the possible area and the silhouette image imaged as shown in FIG. 3 (step S52). A rectangle circumscribing the silhouette image shown in FIG. 11B is obtained, and the center line of this rectangle is obtained. In addition, the position of the center line is calculated from the rectangle circumscribing the possible existence area imaged in step S52, and the AND output is obtained in a manner in which the center lines of the two coincide.

【0103】この結果が、図11(c)に示すような各
部位が存在する候補領域になる。抽出された各部位の候
補領域から端点領域の選択を行う(ステップS53)。
端点領域とは、一方向のみが他の領域と結合している領
域(手や足)のことである。まず、端点領域の重心点
(x,y)の算出を行う(ステップS54)。重心点の
算出方法は、例えば端点領域のxおよびy座標を加算
し、それぞれの加算された値を端点領域の画素数で割っ
た値などがある。
The result is a candidate area in which each site exists as shown in FIG. 11 (c). An end point region is selected from the extracted candidate regions of each part (step S53).
The end point area is an area (hand or foot) that is connected to another area in only one direction. First, the center of gravity (x, y) of the end point region is calculated (step S54). The method of calculating the center of gravity is, for example, a value obtained by adding the x and y coordinates of the end point area and dividing each added value by the number of pixels in the end point area.

【0104】図12は、候補領域と対象物の形状から候
補領域の結合関係を求め、結合関係にある領域群の各位
置や傾斜角および許容範囲の算出する処理の概念を示
す。時系列画像の対象物の各部位の位置(中心点)は以
下のように算出される。
FIG. 12 shows the concept of the processing for obtaining the connection relationship between the candidate areas and the shape of the target area and calculating the respective positions, inclination angles, and allowable ranges of the area groups having the connection relationship. The position (center point) of each part of the object of the time-series image is calculated as follows.

【0105】まず、端点領域と結合関係にある結合領域
の算出を行う(ステップS55)。具体的には、端点領
域の部位の大きさlと、端点領域と接続する他の領域の
部位の大きさl′と対象物モデル部6の対象物の形状に
より結合関係を求める。対象物が人間の場合、端点領域
である手と結合関係にある部位は前腕であるので、l,
l′には、それぞれの部位の長軸の長さが格納される。
First, a connection area having a connection relationship with the end point area is calculated (step S55). Specifically, the connection relation is obtained from the size l of the part of the end point region, the size l ′ of the part of the other region connected to the end point region, and the shape of the object in the object model unit 6. If the object is a human, the part that has a connection with the hand, which is the end point region, is the forearm, so l,
The length of the long axis of each part is stored in l '.

【0106】そして各領域の結合関係について、次のよ
うに算出される。端点領域の重心点を中心とする半径R
(=(l+l′)/2)の円を描き、その円上に存在す
る領域を端点領域と結合する領域つまり結合領域とす
る。円と結合領域が重複する部分の重心を、結合する領
域の中心点(x,y)とする(ステップS56)。
Then, the connection relation of each area is calculated as follows. Radius R centered on the center of gravity of the end point area
A circle of (= (l + l ') / 2) is drawn, and a region existing on the circle is defined as a region that is joined with the end point region, that is, a joined region. The center of gravity of the portion where the circle and the combined area overlap is set as the center point (x, y) of the combined area (step S56).

【0107】図12(b)は、端点領域の重心を中心点
とする半径(l+l′)/2の円と重複する領域であ
り、図12(d)の結合領域の太線が円と結合領域が重
複する部分となる。また、円弧が結合領域と重複した円
弧の長さの1/2を許容範囲εとする(ステップS5
7)。つまり、図12(d)の結合領域の太線(重複し
た領域)のどこでも中心点となりえる可能性を持ってい
るため、この重なり部分の1/2をεとし、中心点の座
標を(x±ε,y±ε)とする。
FIG. 12 (b) is an area overlapping with a circle having a radius (l + l ') / 2 with the center of gravity of the end point area as the center point, and the thick line of the combined area in FIG. 12 (d) is the circle and the combined area. Is the overlapping part. Further, 1/2 of the length of the arc where the arc overlaps the joining area is set as the allowable range ε (step S5).
7). That is, since there is a possibility that the center point can be anywhere in the thick line (overlapping area) of the combined area in FIG. 12D, ½ of this overlapping portion is ε, and the coordinates of the center point are (x ± ε, y ± ε).

【0108】図12(d)は、許容範囲εの算出方法の
概略図を表す。全ての部位の結合領域を検出したか否か
判断し(ステップS58)、全ての部位に関して検出し
ていない場合(NO)、結合領域を新たな端点領域とし
(ステップS59)、ステップS55にフィードバック
する。
FIG. 12D shows a schematic diagram of a method of calculating the allowable range ε. It is determined whether or not the binding regions of all the sites have been detected (step S58), and when the binding regions of all the sites have not been detected (NO), the binding regions are set as new end point regions (step S59), and the result is fed back to step S55. .

【0109】全ての部位に関して検出を行った場合(Y
ES)、各部位の重心点に対応する傾斜角の算出を行う
(ステップS60)。具体的には、0°〜180°まで
5°間隔で上記で算出した点(x,y)を中心点とする
楕円を生成し、シルエット画像とのマッチング誤差が最
小となった角度を傾斜角とする。
When detection is performed for all parts (Y
ES), and the inclination angle corresponding to the center of gravity of each part is calculated (step S60). Specifically, an ellipse centered at the point (x, y) calculated above at 5 ° intervals from 0 ° to 180 ° is generated, and the angle at which the matching error with the silhouette image is minimized is the inclination angle. And

【0110】図12(e)には、傾斜角の算出方法の概
略を示す。ただし、結合領域を算出する際、複数の結合
領域が検出された場合には、対象物の形状や結合関係に
ある部位間の傾斜角などの情報を用いて、矛盾が生じる
場合にはその結合関係は破棄し、結合関係の絞り込みを
行う。
FIG. 12E shows the outline of the method of calculating the tilt angle. However, when multiple bond areas are detected when calculating the bond area, information such as the shape of the object and the inclination angle between the parts in the bond relationship is used, and if there is a contradiction, the bond Discard the relationship and narrow down the connection relationship.

【0111】なお、時系列画像中の対象物の移動方向と
対象物モデル部6に格納されているモデルの移動方向が
逆の場合にも以下のようにすることにより適応すること
ができる。
Incidentally, even when the moving direction of the object in the time-series image and the moving direction of the model stored in the object model unit 6 are opposite, the following can be applied.

【0112】まず、時系列画像から対象物の移動方向の
検出を行う。移動方向の検出方法は、例えば、シルエッ
ト画像の重心を算出し、重心のx座標の変化で求めるこ
とができる。対象物の移動方向が、対象物モデル部6に
格納されている動作の移動方向と一致しているか判断を
行う。
First, the moving direction of the object is detected from the time series images. The moving direction can be detected by, for example, calculating the center of gravity of the silhouette image and changing the x coordinate of the center of gravity. It is determined whether the moving direction of the target object matches the moving direction of the motion stored in the target object model unit 6.

【0113】同一方向であれば、モデルのパラメータを
そのまま使用し、逆方向の場合には以下の処理を行い、
モデルの動作を反転させる。
In the case of the same direction, the parameters of the model are used as they are, and in the case of the opposite direction, the following processing is performed.
Reverse the behavior of the model.

【0114】対象物が人間である場合のモデルの動作を
反転する手法に関する具体的な例を以下に示す。図49
は、モデルの反転に関する概念図である。
A specific example of a method of reversing the motion of the model when the object is a human is shown below. FIG. 49
[Fig. 3] is a conceptual diagram regarding model inversion.

【0115】補間関数から各時刻の胴体部の位置(x2
,y2 )座標の算出を行う。胴体部(i=2)以外の
部位iに関して、胴体部と各パラメータとの差の算出
を、図49のΔx5 =(x2 −x5 )やΔy5 =(y2
−y5 )のように行う。胴体部のパラメータ(x2 ,y
2 ,θ2 )に先で算出した差を加算し、部位に対応する
逆の部位(例えば、右手ならば左手)に加算結果を格納
する。つまり、x8 =Δx5 +x2 ,y8 =Δy5 +y
2 のように行う。
The position of the body part at each time (x2
, Y2) The coordinates are calculated. With respect to the part i other than the body part (i = 2), the difference between the body part and each parameter is calculated as Δx5 = (x2-x5) or Δy5 = (y2 in FIG. 49.
-Y5). Body parameters (x2, y
2 and θ 2) is added to the previously calculated difference, and the addition result is stored in the opposite part (for example, the right hand is the left hand) corresponding to the part. That is, x8 = Δx5 + x2, y8 = Δy5 + y
Do as in 2.

【0116】この様に行うことで、1つのモデルで逆向
きの動きを行っている対象物の動作の解析も行うことが
できる。なお、上記の説明では、各部位を表現する単純
な幾何学的形状として楕円を用いたが、これは楕円だけ
でなく線分や円柱などで記述することも可能である。
By doing in this way, it is also possible to analyze the motion of the object that is moving in the opposite direction in one model. In the above description, an ellipse is used as a simple geometrical shape that expresses each part, but this can be described not only by an ellipse but also by a line segment or a cylinder.

【0117】図12(e)においては、各部位を表現す
る単純な幾何学的形状として楕円を用いたが、これは楕
円だけでなく線分や円柱などで記述することも可能であ
る。本実施形態では、時系列画像中の対象物の各部位の
パラメータを概略的に算出することで最適化処理の負担
を軽減し、処理時間を短縮することができる。
In FIG. 12 (e), an ellipse is used as a simple geometrical shape for expressing each part, but this can be described not only by an ellipse but also by a line segment or a cylinder. In the present embodiment, the load of the optimization process can be reduced and the processing time can be shortened by roughly calculating the parameters of each part of the object in the time-series image.

【0118】次に第3実施形態としての時系列画像解析
装置について説明する。
Next, a time series image analysis apparatus as the third embodiment will be described.

【0119】図25には、第3実施形態として、時系列
画像解析装置の全体構成の一例を示す。本実施形態の構
成は、基本的には第1実施形態と同等であり、同じ構成
部材には同一の参照符号を付し、異なる部分のみ説明す
る。
FIG. 25 shows an example of the overall configuration of a time series image analysis device as a third embodiment. The configuration of the present embodiment is basically the same as that of the first embodiment, the same components are designated by the same reference numerals, and only different portions will be described.

【0120】この時系列画像解析装置において、入力部
1からの入力信号は、A/D部2、バッファメモリ部3
を経由して補助入出力部4に保存される。補助入出力部
4の信号は、形状生成部5へ出力される。形状生成部5
の出力は、対象物モデル部6、整合部41に転送され
る。対象物モデル部6は、整合部41に接続されてい
る。整合部8で算出されたパラメータを制御部11から
の制御に基づき、画像生成部12に出力する。上記画像
生成部12にて画像化された解析結果の出力をD/A部
9を経由して出力部10へ出力される。また、制御部1
1の制御信号により、入力部1、補助入出力部4、対象
物モデル部6、整合部41、出力部10がそれぞれ制御
される。
In this time-series image analysis device, the input signal from the input unit 1 is the A / D unit 2 and the buffer memory unit 3.
Is stored in the auxiliary input / output unit 4 via The signal of the auxiliary input / output unit 4 is output to the shape generation unit 5. Shape generator 5
Is transferred to the object model unit 6 and the matching unit 41. The object model unit 6 is connected to the matching unit 41. The parameters calculated by the matching unit 8 are output to the image generation unit 12 under the control of the control unit 11. The output of the analysis result imaged by the image generation unit 12 is output to the output unit 10 via the D / A unit 9. Control unit 1
The control signal 1 controls the input unit 1, the auxiliary input / output unit 4, the object model unit 6, the matching unit 41, and the output unit 10, respectively.

【0121】このような時系列画像解析装置は、高速な
解析処理に好適し、対象物の各部位の位置や傾斜角の概
略的なパラメータの算出を行なわず、モデルのパラメー
タを対象物の各部位の初期パラメータ値として扱うもの
である。
Such a time-series image analysis device is suitable for high-speed analysis processing, and does not calculate the approximate parameters of the position and tilt angle of each part of the object, but the model parameters are calculated for each object. It is treated as the initial parameter value of the part.

【0122】まず、CCDカメラ等の入力部1は、制御
部11からの制御信号に基づき所定時間の映像信号をA
/D部2へ転送する。A/D部2は、入力部1からの上
記映像信号をデジタル信号へ変換してバッファメモリ部
3へ転送する。このバッファメモリ部3は、複数のフレ
ームメモリで構成されており、A/D部2からの上記デ
ジタル信号を記憶し、これを順次補助入出力部4へ出力
する。
First, the input unit 1 such as a CCD camera, based on the control signal from the control unit 11, outputs the video signal of a predetermined time A
/ Transfer to D section 2. The A / D unit 2 converts the video signal from the input unit 1 into a digital signal and transfers the digital signal to the buffer memory unit 3. The buffer memory unit 3 is composed of a plurality of frame memories, stores the digital signal from the A / D unit 2, and sequentially outputs the digital signal to the auxiliary input / output unit 4.

【0123】上記補助入出力部4は、制御部11の制御
信号により、上記デジタル信号を形状生成部5へ出力す
る。形状生成部5では、対象物の存在していない背景画
像と対象物の存在している原画像との差の絶対値を算出
した後、その絶対値を2値化処理し、動領域のみが取り
出される。この動領域が対象物のシルエット画像とな
る。ここで、背景画像は、予め撮影されているものを用
いてもよいし、原画像から生成された背景画像を用いて
もよい。
The auxiliary input / output unit 4 outputs the digital signal to the shape generator 5 in response to the control signal from the controller 11. In the shape generation unit 5, after calculating the absolute value of the difference between the background image in which the object does not exist and the original image in which the object exists, the absolute value is binarized, and only the moving area is detected. Taken out. This moving area becomes a silhouette image of the object. Here, as the background image, a previously captured image may be used, or a background image generated from the original image may be used.

【0124】上記形状生成部5で生成されたシルエット
画像は、対象物モデル部6、整合部41に転送される。
対象物モデル部6は、対象物の形状や動作の情報などが
格納されている。また、制御部11の制御信号により、
前の実施形態で説明したと同様にサイズの校正を行う。
形状生成部5で生成されたシルエット画像、対象物モデ
ル部6のモデルは、整合部41に出力される。整合部4
1では、形状生成部5、対象物モデル部6の出力によ
り、時系列画像中の対象物と対象物モデル部6の動作に
関する時刻の同期を行い、対象物モデル部6のパラメー
タ群全体を形状生成部5のシルエット画像群に整合させ
る。
The silhouette image generated by the shape generating section 5 is transferred to the object model section 6 and the matching section 41.
The object model unit 6 stores information on the shape and motion of the object. In addition, by the control signal of the control unit 11,
Size calibration is performed as described in the previous embodiment.
The silhouette image generated by the shape generation unit 5 and the model of the object model unit 6 are output to the matching unit 41. Matching unit 4
In 1, the outputs of the shape generation unit 5 and the object model unit 6 synchronize the time regarding the operation of the object in the time-series image and the object model unit 6, and the entire parameter group of the object model unit 6 is shaped. Match with the silhouette image group of the generation unit 5.

【0125】そして整合部41で算出されたパラメータ
を制御部11からの制御信号により、画像生成部12に
出力する。上記画像生成部12にて画像化された解析結
果の出力をD/A部9に転送し、アナログ信号に変換す
る。さらに制御部11からの制御信号に基づき、上記ア
ナログ信号をディスプレイなどの出力部10へ出力し、
画像解析結果を表示する。
Then, the parameters calculated by the matching section 41 are output to the image generation section 12 by the control signal from the control section 11. The output of the analysis result imaged by the image generation unit 12 is transferred to the D / A unit 9 and converted into an analog signal. Further, based on the control signal from the control unit 11, the analog signal is output to the output unit 10 such as a display,
Display image analysis results.

【0126】次に図26は、整合部41の処理における
ブロック構成を示す。
Next, FIG. 26 shows a block configuration in the processing of the matching section 41.

【0127】前段の形状生成部5と対象物モデル部6の
出力は、整合部41の同期部21に転送される。この同
期部21では、時系列画像中の対象物と対象物モデル部
6における動作に関する時刻の同期をとる。
The outputs of the former shape generator 5 and the object model unit 6 are transferred to the synchronization unit 21 of the matching unit 41. The synchronization unit 21 synchronizes the time in the time-series image with respect to the operation of the target object and the target object model unit 6.

【0128】そして対象物モデル部6と同期部21の出
力は、周期校正部22に転送される。周期校正部22で
は、制御部11からの制御信号により、対象となる動作
に周期性がある場合には、同期部21で算出された複数
の同期時刻とモデルに基づいて一周期に要する時間を算
出し、各部位の位置や傾斜角のモデルのパラメータの校
正を行う。そして形状生成部5と対象物モデル部6の出
力は、最適化処理部51に転送する。最適化処理部51
では、対象物モデル部6のパラメータ群全体を形状生成
部5のシルエット画像群に整合させる。
The outputs of the object model unit 6 and the synchronizing unit 21 are transferred to the period calibrating unit 22. In the cycle calibrating unit 22, when the target operation has a periodicity by the control signal from the control unit 11, the time required for one cycle is calculated based on the plurality of synchronization times calculated by the synchronizing unit 21 and the model. Calculate and calibrate the parameters of the model of the position and tilt angle of each part. Then, the outputs of the shape generation unit 5 and the object model unit 6 are transferred to the optimization processing unit 51. Optimization processing unit 51
Then, the entire parameter group of the object model unit 6 is matched with the silhouette image group of the shape generation unit 5.

【0129】上記最適化処理部51では、対象物モデル
部6のモデルのパラメータ群と形状生成部5で生成され
たシルエット画像群の2者を整合する。このための手法
の一例として評価関数を設定し、最小化する。例えば、
人間を対象物とした解析の場合、(7)式のように評価
関数ET 定義し、評価関数ET を前記実施形態同様にア
ニーリングや最急降下法などを用いて最小化することに
より、時系列画像のパラメータ群の最適なパラメータの
算出を行う。
The optimization processing section 51 matches the model parameter group of the object model section 6 with the silhouette image group generated by the shape generation section 5. As an example of a method for this, an evaluation function is set and minimized. For example,
In the case of an analysis targeting a human, the evaluation function E T is defined as shown in Expression (7), and the evaluation function E T is minimized by using the annealing, the steepest descent method, or the like as in the above-described embodiment. The optimum parameters of the parameter group of the series image are calculated.

【0130】[0130]

【数7】 (Equation 7)

【0131】ここで、Tは周期、i=T〜T+1は時刻
である。Silは時系列画像中の対象物のシルエット画
像、Parはモデルのパラメータにより生成した楕円画
像であり、第一項はモデルのパラメータをシルエット画
像に整合させる作用をもつ。Pcは時刻i−2,i−
1,i,i+1,i+2の時系列画像のパラメータに、
重みをそれぞれ1:2:3:2:1だけ与え、平均値を
算出した値である。第二項は、時系列画像のパラメータ
を前後の時刻から推測されるパラメータ値に整合させる
作用をもつ。kは、各項に対するウエイトである。
Here, T is the period, and i = T to T + 1 is the time. Sil is a silhouette image of the object in the time-series image, Par is an elliptical image generated from the model parameters, and the first term has the function of matching the model parameters with the silhouette image. Pc is time i-2, i-
1, i, i + 1, i + 2 time series image parameters,
Weights are given as 1: 2: 3: 2: 1, respectively, and are average values. The second term has the effect of matching the parameters of the time-series image with the parameter values estimated from the preceding and following times. k is a weight for each term.

【0132】また前述した説明では、各部位を表現する
単純な幾何学的形状として楕円を用いたが、これは線分
や円柱などで記述することも可能である。
In the above description, an ellipse is used as a simple geometrical shape expressing each part, but this can also be described by a line segment or a cylinder.

【0133】上記実施形態では、構成が簡単になり、時
系列画像の初期パラメータの算出を行わないので、第1
実施形態に比べて高速に処理を行うことができる。
In the above embodiment, the structure is simplified and the initial parameters of the time series images are not calculated.
Processing can be performed faster than in the embodiment.

【0134】次に第4実施形態としての時系列画像解析
装置について説明する。
Next, a time series image analysis apparatus as the fourth embodiment will be described.

【0135】本実施形態の全体的な構成は、第3実施形
態と同等であり、異なる構成となる図27に示す整合部
41のみ説明する。
The overall configuration of this embodiment is the same as that of the third embodiment, and only the matching section 41 shown in FIG. 27, which has a different configuration, will be described.

【0136】この整合部41においては、形状生成部5
と対象物モデル部6の出力は、最適化処理部61に転送
する。最適化処理部61では、ニューラルネットワーク
を利用することにより、時系列画像のシルエット画像に
最適な時系列画像の各部位のパラメータ群(位置)の算
出を行う。対象物モデル部6と最適化処理部61の出力
は傾斜角算出部62に転送され、時系列画像のシルエッ
ト画像に最適な時系列画像の各部位の回転角の算出を行
う。傾斜角算出部62の出力は、画像生成部12に出力
される。
In the matching section 41, the shape generation section 5
The output of the object model unit 6 is transferred to the optimization processing unit 61. The optimization processing unit 61 uses a neural network to calculate a parameter group (position) of each part of the time-series image that is optimum for the silhouette image of the time-series image. The outputs of the object model unit 6 and the optimization processing unit 61 are transferred to the inclination angle calculation unit 62, and the rotation angle of each part of the time series image that is optimum for the silhouette image of the time series image is calculated. The output of the tilt angle calculation unit 62 is output to the image generation unit 12.

【0137】図27に示すように、上記形状生成部5の
時系列画像のシルエット画像と対象物モデル部6のモデ
ルのパラメータ群とシルエット画像群の出力は、最適化
処理部61に転送する。最適化処理部61では、階層型
ニューラルネットワークを用いて、時系列画像のシルエ
ット画像に最適な時系列画像の各部位の位置のパラメー
タ群の算出を行う。最適化処理部61で算出された各部
位のパラメータ群(位置)は、傾斜角算出部62に転送
され、時系列画像のシルエット画像に最適な時系列画像
の各部位の傾斜角の算出を行う。傾斜角算出部62で算
出されたパラメータ群は、画像生成部12に出力され
る。
As shown in FIG. 27, the silhouette image of the time-series image of the shape generation unit 5, the model parameter group of the object model unit 6 and the output of the silhouette image group are transferred to the optimization processing unit 61. The optimization processing unit 61 calculates the parameter group of the position of each part of the time-series image that is optimal for the silhouette image of the time-series image using a hierarchical neural network. The parameter group (position) of each site calculated by the optimization processing unit 61 is transferred to the tilt angle calculation unit 62, and the tilt angle of each site of the time series image that is most suitable for the silhouette image of the time series image is calculated. . The parameter group calculated by the tilt angle calculation unit 62 is output to the image generation unit 12.

【0138】図28(a)は、3層の階層型ニューラル
ネットワークの学習法に関する概念図である。対象物モ
デル部6に格納されているモデルのシルエット画像を、
入力層に入力する。ネットワークを介した結果がモデル
の各部位の位置のパラメータとなるように学習させ、各
ユニットの重みを決定する。学習は、動作1周期分の画
像に対して行われ、重みの更新を行う。なお学習方法
は、例えば公知である誤差逆伝搬法を用いて行うことが
できる。この重みを利用し、撮影された画像の各部位の
位置の算出を行う。形状生成部5の時系列画像のシルエ
ット画像を入力層に入力し、ネットワークを介すること
で、シルエット画像に最適な各部位の位置の算出を行う
ことができる。図28(b)は、撮影された画像に対す
るパラメータ算出に関する概念図である。
FIG. 28 (a) is a conceptual diagram regarding a learning method of a three-layer hierarchical neural network. The silhouette image of the model stored in the object model unit 6
Input to the input layer. The weighting of each unit is determined by learning so that the result via the network becomes a parameter of the position of each part of the model. The learning is performed on the image for one cycle of the operation, and the weight is updated. Note that the learning method can be performed by using, for example, a known back propagation method. By using this weight, the position of each part of the captured image is calculated. By inputting the silhouette images of the time-series images of the shape generation unit 5 into the input layer and passing them through the network, it is possible to calculate the position of each part that is optimum for the silhouette image. FIG. 28B is a conceptual diagram regarding parameter calculation for a captured image.

【0139】傾斜角算出部62では、最適化処理部61
で算出された各部位のパラメータ群(位置)と対象物モ
デル部6に格納されている各部位の大きさ(楕円の短
軸、長軸の長さ)と形状生成部5の時系列画像のシルエ
ット群を用いて、時系列画像群の各部位の傾斜角の算出
を行う。最適化処理部61で算出された各部位の位置
(x,y)を中心点、対象物モデル部6の各部位の大き
さ(楕円の短軸b/2、長軸の長さa/2)を用いて楕
円の生成を行う。傾斜角に関しては、0°〜180°ま
で5°間隔で上記のパラメータを用いて楕円を生成し、
シルエット画像とマッチング誤差が最小となった角度を
傾斜角とする。また、傾斜角の算出は、前述した図12
(d)にその概念を示している。
In the inclination angle calculation unit 62, the optimization processing unit 61
Of the parameter group (position) of each part calculated in step S, the size of each part stored in the object model unit 6 (short axis of ellipse, length of long axis) and time series image of the shape generation unit 5. Using the silhouette group, the tilt angle of each part of the time series image group is calculated. The position (x, y) of each part calculated by the optimization processing unit 61 is the center point, and the size of each part of the object model unit 6 (short axis b / 2 of the ellipse, length a / 2 of the long axis). ) Is used to generate an ellipse. For the tilt angle, generate an ellipse using the above parameters at 5 ° intervals from 0 ° to 180 °,
The angle at which the matching error with the silhouette image is minimized is the tilt angle. In addition, the calculation of the tilt angle is performed by the above-described FIG.
The concept is shown in (d).

【0140】そして、算出された各部位のパラメータ群
から楕円画像を生成し、画像生成部9に転送する。
Then, an elliptic image is generated from the calculated parameter group of each part and is transferred to the image generating section 9.

【0141】この第4実施形態では、ニューラルネット
ワークを用いることにより、最適化処理部24の構成が
簡単になり、最適化パラメータの調整を意識的に行われ
なくても学習により、これを獲得することができる。
In the fourth embodiment, by using the neural network, the configuration of the optimization processing unit 24 is simplified, and the learning is obtained by learning even if the optimization parameters are not adjusted intentionally. be able to.

【0142】次に第5実施形態としての時系列画像解析
装置について説明する。
Next, a time series image analysis apparatus as the fifth embodiment will be described.

【0143】図29には、時系列画像解析装置の全体構
成の一例を示す。本実施形態の全体的な構成は、第3実
施形態と同等であり、同じ構成部位には同一の参照符号
を付し、説明する。
FIG. 29 shows an example of the overall configuration of the time-series image analysis device. The overall configuration of this embodiment is the same as that of the third embodiment, and the same components are designated by the same reference numerals and described.

【0144】この時系列画像解析装置においては、入力
部1からの入力信号は、A/D部2、バッファメモリ部
3を経由して補助入出力部4に保存される。補助入出力
部4の信号は、形状生成部5へ出力される。形状生成部
5の出力は、対象物モデル部71、パラメータ算出部
7、整合部72に転送される。上記対象物モデル部71
は、パラメータ算出部7、整合部72に接続されてい
る。
In this time-series image analysis device, the input signal from the input section 1 is stored in the auxiliary input / output section 4 via the A / D section 2 and the buffer memory section 3. The signal of the auxiliary input / output unit 4 is output to the shape generation unit 5. The output of the shape generation unit 5 is transferred to the object model unit 71, the parameter calculation unit 7, and the matching unit 72. The target object model section 71
Are connected to the parameter calculation unit 7 and the matching unit 72.

【0145】そしてパラメータ算出部7の出力は、整合
部72に接続されている。整合部72の出力は、対象物
モデル部71と画像生成部12に出力される。画像生成
部12の出力を、D/A部9を経由して、出力部10へ
出力される。また制御部11の制御信号により、入力部
1、補助入出力部4、対象物モデル部71、パラメータ
算出部7、整合部72、出力部10がそれぞれ制御され
る。この時系列画像解析装置は、モデルを処理の進行に
伴い適応的に学習させるものである。
The output of the parameter calculation section 7 is connected to the matching section 72. The output of the matching unit 72 is output to the object model unit 71 and the image generation unit 12. The output of the image generation unit 12 is output to the output unit 10 via the D / A unit 9. The control signal from the control unit 11 controls the input unit 1, the auxiliary input / output unit 4, the object model unit 71, the parameter calculation unit 7, the matching unit 72, and the output unit 10, respectively. The time-series image analysis device adaptively learns the model as the processing progresses.

【0146】この時系列画像解析装置において、CCD
カメラ等の入力部1は、制御部11からの制御に基づき
所定時間の映像信号をA/D部2へ転送する。A/D部
2は入力部1からの上記映像信号を、デジタル信号へ変
換してバッファメモリ部3へ転送する。
In this time series image analysis device, the CCD
The input unit 1 such as a camera transfers a video signal for a predetermined time to the A / D unit 2 under the control of the control unit 11. The A / D unit 2 converts the video signal from the input unit 1 into a digital signal and transfers it to the buffer memory unit 3.

【0147】そしてバッファメモリ部3は、複数のフレ
ームメモリで構成され、A/D部2からの上記デジタル
信号を記憶し、これを順次、磁気ディスク装置などの補
助入出力部4へ出力する。補助入出力部4は、制御部1
1からの制御信号により上記デジタル信号を形状生成部
5へ出力する。形状生成部5では、対象物のシルエット
領域の抽出を行う。
The buffer memory unit 3 is composed of a plurality of frame memories, stores the digital signals from the A / D unit 2, and sequentially outputs the digital signals to the auxiliary input / output unit 4 such as a magnetic disk device. The auxiliary input / output unit 4 is the control unit 1.
The digital signal is output to the shape generation unit 5 according to the control signal from 1. The shape generator 5 extracts the silhouette area of the object.

【0148】次に形状生成部5で生成されたシルエット
画像は、対象物モデル部71、パラメータ算出部7、整
合部72に転送される。対象物モデル部71は、対象物
の形状や動作の情報などが格納されている。また動作に
関する情報は、整合部72の出力に基づき更新される。
パラメータ算出部7では、制御部11の制御に基づいて
形状生成部5のシルエット画像と対象物モデル部71の
出力から、対象物の各部位の位置や傾斜角のパラメータ
を概略的に決定する。
Next, the silhouette image generated by the shape generation unit 5 is transferred to the object model unit 71, the parameter calculation unit 7, and the matching unit 72. The object model section 71 stores information on the shape and motion of the object. Further, the information regarding the operation is updated based on the output of the matching unit 72.
Under the control of the control unit 11, the parameter calculation unit 7 roughly determines the parameters of the position and the inclination angle of each part of the object from the silhouette image of the shape generation unit 5 and the output of the object model unit 71.

【0149】そして、形状生成部5で生成されたシルエ
ット画像、対象物モデル部71のモデル、パラメータ算
出部7で算出された各部位のパラメータは、整合部72
に出力される。整合部72では、形状生成部5、対象物
モデル部71、パラメータ算出部7の出力により、時系
列画像中の対象物と対象物モデル部71のモデルの時刻
の同期を行い、パラメータ算出部7により算出されたパ
ラメータ群全体を対象物モデル部71のパラメータ群全
体、及び形状生成部5のシルエット画像群に整合させ
る。整合部72の出力を制御部11からの制御に基づ
き、対象物モデル部71と画像生成部12へ転送する。
Then, the silhouette image generated by the shape generation unit 5, the model of the object model unit 71, and the parameters of each part calculated by the parameter calculation unit 7 are stored in the matching unit 72.
Is output to In the matching unit 72, the outputs of the shape generation unit 5, the object model unit 71, and the parameter calculation unit 7 synchronize the times of the object in the time-series image and the model of the object model unit 71, and the parameter calculation unit 7 The entire parameter group calculated by is matched with the entire parameter group of the target object model unit 71 and the silhouette image group of the shape generation unit 5. The output of the matching unit 72 is transferred to the object model unit 71 and the image generation unit 12 under the control of the control unit 11.

【0150】上記画像生成部12の出力は、D/A部9
に転送し、アナログ信号に変換する。さらに制御部11
からの信号に基づき上記アナログ信号をディスプレイな
どの出力部10へ出力し、画像解析結果を表示する。
The output of the image generator 12 is the D / A unit 9
To convert to an analog signal. Furthermore, the control unit 11
The analog signal is output to the output unit 10 such as a display based on the signal from the image display unit to display the image analysis result.

【0151】以下に、対象物モデル部71および整合部
72の説明を行う。
The object model section 71 and the matching section 72 will be described below.

【0152】図30は、モデルパラメータの更新に関す
る概念を示し、図31は、対象物モデル部71の構成を
示す。
FIG. 30 shows the concept of updating model parameters, and FIG. 31 shows the configuration of the object model section 71.

【0153】まず制御部11からの制御により、形状知
識部81と動作知識部82の出力をパラメータ算出部7
に転送する。パラメータ算出部7にて算出された概略的
なパラメータと形状知識部81と動作知識部82の出力
を整合部72に出力する。そして制御部11からの制御
信号に基づき整合部72の出力は、動作知識部82にフ
ィードバックされる。
First, under the control of the control unit 11, the outputs of the shape knowledge unit 81 and the motion knowledge unit 82 are output to the parameter calculation unit 7.
Transfer to. The rough parameters calculated by the parameter calculation unit 7 and the outputs of the shape knowledge unit 81 and the motion knowledge unit 82 are output to the matching unit 72. The output of the matching unit 72 is fed back to the operation knowledge unit 82 based on the control signal from the control unit 11.

【0154】上記対象物モデル部71において、時系列
画像の最初の一周期では、第1実施形態と同様に外部か
ら与えられた形状知識部81と動作知識部82の初期モ
デルをパラメータ算出部7、整合部72に出力する。
In the object model section 71, in the first one cycle of the time series image, the parameter calculation section 7 uses the initial model of the shape knowledge section 81 and the motion knowledge section 82 given from the outside as in the first embodiment. , To the matching unit 72.

【0155】そして2周期目以降は、整合部72で算出
された補正パラメータを格納し、外部から与えられたモ
デルは初期モデルとして別に保存しておく。この補正パ
ラメータに基づき、動作知識部82のモデルを更新し、
以降の処理においては、更新されたモデルを各処理部に
出力する。モデルの更新方法は、例えば更新前のモデル
に各部位の各パラメータに補正パラメータを加えた値と
する。
After the second cycle, the correction parameters calculated by the matching unit 72 are stored, and the model given from the outside is separately stored as an initial model. The model of the motion knowledge unit 82 is updated based on this correction parameter,
In the subsequent processing, the updated model is output to each processing unit. The model updating method is, for example, a value obtained by adding a correction parameter to each parameter of each part in the model before updating.

【0156】図32は、整合部72の処理におけるブロ
ック図である。形状生成部5と対象物モデル部71の出
力は、同期部21に転送される。同期部21の出力は、
周期校正部22に転送される。形状生成部5と対象物モ
デル部71とパラメータ算出部7と同期部21と周期校
正部22はパラメータ修正部23に出力される。形状生
成部5と対象物モデル部71とパラメータ修正部23の
出力は、最適化処理部24に転送する。最適化処理部2
4の出力は、画像生成部12へ、最適化処理部24と対
象物モデル部71の出力は補正パラメータ算出部91へ
転送される。補正パラメータ算出部91の出力は対象物
モデル部71にフィードバックする。
FIG. 32 is a block diagram of the processing of the matching section 72. The outputs of the shape generation unit 5 and the object model unit 71 are transferred to the synchronization unit 21. The output of the synchronization unit 21 is
It is transferred to the period calibration unit 22. The shape generation unit 5, the object model unit 71, the parameter calculation unit 7, the synchronization unit 21, and the period calibration unit 22 are output to the parameter correction unit 23. The outputs of the shape generation unit 5, the object model unit 71, and the parameter correction unit 23 are transferred to the optimization processing unit 24. Optimization processing unit 2
The output of No. 4 is transferred to the image generation unit 12, and the outputs of the optimization processing unit 24 and the object model unit 71 are transferred to the correction parameter calculation unit 91. The output of the correction parameter calculation unit 91 is fed back to the object model unit 71.

【0157】上記同期部21では、対象物モデル部71
と形状生成部5の出力に基づき、時系列画像中の対象物
と対象物モデル部71のモデルに関する時刻の同期をと
る。周期校正部22では、対象となる動作に周期性があ
る場合、各部位の位置や傾斜角のモデルのパラメータの
校正を行う。パラメータ修正部23では、一画像内でモ
デルとの対比による時系列画像のパラメータの修正を行
う。
In the synchronizing section 21, the object model section 71
Based on the output of the shape generation unit 5, the times of the object in the time-series image and the model of the object model unit 71 are synchronized. The cycle calibrating unit 22 calibrates the parameters of the model of the position and the tilt angle of each part when the target operation has periodicity. The parameter correction unit 23 corrects the parameters of the time-series image by comparing with the model in one image.

【0158】そして最適化処理部24では、時系列画像
中の対象物に最適なパラメータの算出を行う。最適化処
理部24の出力は、制御部11からの制御信号により、
画像生成部12と補正パラメータ算出部91に出力され
る。補正パラメータ算出部91では、最適化処理部24
で算出されたパラメータと対象物モデル部71のモデル
パラメータとの各部位の各パラメータの差分情報を求め
る。この差分情報をモデルの補正パラメータとして対象
物モデル部71にフィードバックする。
Then, the optimization processing section 24 calculates optimum parameters for the object in the time series images. The output of the optimization processing unit 24 is controlled by the control signal from the control unit 11.
It is output to the image generation unit 12 and the correction parameter calculation unit 91. In the correction parameter calculation unit 91, the optimization processing unit 24
Difference information of each parameter of each part between the parameter calculated in step 1 and the model parameter of the object model part 71 is obtained. This difference information is fed back to the object model unit 71 as a model correction parameter.

【0159】なお、前記実施形態と同様な方法を用いて
対象物に最適なパラメータを算出する場合、各パラメー
タの差分情報をベクトルとして保存することで、このベ
クトルの方向に重みをかけて、微小変化を与えることが
できる。また、3周期以降は、補正パラメータのテーブ
ルの部分を置き換えるだけでよい。
When the optimum parameters for the object are calculated using the same method as in the above-described embodiment, the difference information of each parameter is stored as a vector so that the direction of this vector is weighted and minute You can make a difference. Further, after the third cycle, it is only necessary to replace the portion of the correction parameter table.

【0160】図30(b)は、最適化処理での微小変化
の与え方に関する概念図である。
FIG. 30B is a conceptual diagram relating to how to make a minute change in the optimization process.

【0161】この第5実施形態では、モデルを随時更新
することにより、解析を行う対象物に適したモデルを作
成することができ、処理を高精度にかつ高速に行うこと
ができる。
In the fifth embodiment, by updating the model as needed, a model suitable for the object to be analyzed can be created, and the processing can be performed with high accuracy and at high speed.

【0162】次に第6実施形態としての時系列画像解析
装置について説明する。
Next, a time series image analysis apparatus as a sixth embodiment will be described.

【0163】本実施形態の全体的な構成は、第5実施形
態と同等であり、異なる構成となる対象物モデル部につ
いて説明する。本実施形態は、各部位のモデルを階層的
に分割し、各部位毎に交換可能なモデルに関するもので
ある。
The overall configuration of the present embodiment is the same as that of the fifth embodiment, and an object model part having a different configuration will be described. The present embodiment relates to a model in which a model of each part is hierarchically divided and can be exchanged for each part.

【0164】図33は、本実施形態の対象物モデル部の
具体的な構成例を示す。
FIG. 33 shows a concrete example of the configuration of the object model section of this embodiment.

【0165】この対象物モデル部において、形状知識部
81と動作知識部101の出力はパラメータ算出部7へ
形状知識部81と動作知識部101とパラメータ算出部
7の出力は、整合部72に転送される。整合部72の出
力は、制御部11からの制御信号により動作知識部10
1に出力される。
In this object model part, the outputs of the shape knowledge part 81 and the motion knowledge part 101 are transferred to the parameter calculation part 7, and the outputs of the shape knowledge part 81, the motion knowledge part 101 and the parameter calculation part 7 are transferred to the matching part 72. To be done. The output of the matching unit 72 is output from the operation knowledge unit 10 according to a control signal from the control unit 11.
It is output to 1.

【0166】この対象物モデル部は、制御部11の制御
信号により、形状知識部81と各部位毎に階層的に保存
されている動作知識部101の出力をパラメータ算出部
7と整合部72に転送する。パラメータ算出部7にて算
出された概略的なパラメータと形状知識部81と動作知
識部101の出力を整合部72に出力する。整合部72
では、モデルと適合する部位とモデルの切り替えを行う
部位の抽出を行う。制御部11の制御に基づき整合部7
2の出力は、動作知識部101にフィードバックされ
る。
The object model section outputs the output of the shape knowledge section 81 and the motion knowledge section 101 hierarchically stored for each part to the parameter calculation section 7 and the matching section 72 according to the control signal of the control section 11. Forward. The rough parameters calculated by the parameter calculation unit 7 and the outputs of the shape knowledge unit 81 and the motion knowledge unit 101 are output to the matching unit 72. Matching unit 72
Then, the part that matches the model and the part that switches the model are extracted. Based on the control of the control unit 11, the matching unit 7
The output of 2 is fed back to the motion knowledge unit 101.

【0167】そして対象物モデル部71では、対象物の
形状構造の中心となる部位に関して他の部位との結合を
階層的に保存する。図34には、人間を例とした場合の
胴体部を基準に他の部位が結合しているツリー構造を示
す。このように階層的なモデルから、1番目に格納され
ているモデルのパラメータを取り出し、パラメータ算出
部7へ出力し、概略的なパラメータの算出を行う。算出
された概略的なパラメータとモデル(形状知識部81と
動作知識部101)を整合部72に出力し、切り替えを
行う部位の検出を行う。整合部72で検出された切り替
えを行う部位の階層構造下に格納されている次のモデル
をパラメータ算出部7と整合部72に出力する。
Then, the object model section 71 hierarchically stores the connection with other parts regarding the center part of the shape structure of the object. FIG. 34 shows a tree structure in which other parts are connected based on the body part of a human being as an example. In this way, the parameters of the first stored model are extracted from the hierarchical model and output to the parameter calculation unit 7 to roughly calculate the parameters. The calculated rough parameters and model (shape knowledge unit 81 and motion knowledge unit 101) are output to the matching unit 72 to detect the part to be switched. The next model stored under the hierarchical structure of the switching portion detected by the matching unit 72 is output to the parameter calculation unit 7 and the matching unit 72.

【0168】上記整合部72では、対象物モデル部71
から出力されたモデルから時系列画像のパラメータの最
適解を算出する。最適化処理では、適合性を判断するた
めに、前記実施形態では評価関数Eにおいて、(6)式
のように14種類の全部位の総和をとっていた(j=1
〜14)。これを、個々の部位ごとの式に分解して、1
4種類の評価関数を得る。個々の評価関数に対して評価
基準を設け、評価関数Eが評価基準より大きい部位の選
択を行う。
In the matching section 72, the object model section 71
The optimum solution of the parameters of the time series image is calculated from the model output from. In the optimization process, in order to judge the suitability, in the above embodiment, the sum of all 14 types of sites is taken in the evaluation function E as shown in equation (6) (j = 1.
~ 14). This is decomposed into the formula for each part, and 1
Obtain four types of evaluation functions. An evaluation standard is set for each evaluation function, and a site where the evaluation function E is larger than the evaluation standard is selected.

【0169】具体的には、評価基準となる閾値を設定
し、各部位の評価関数Eが所定の閾値を越えたか否か判
断する。この場合の評価は、前記ツリー構造の上部から
行うものとする。つまり人間の場合、胴体部から行う。
上記評価関数Eが閾値を越えて、選択された部位を動作
知識部101に出力する。この操作は、各部位の評価関
数が閾値を越えなくなるまで行う。またモデルが決定し
た後で、各部位の評価関数が閾値より大きくなった場合
には、上記のような手法でモデルの切り替えを行う。
Specifically, a threshold serving as an evaluation standard is set, and it is determined whether the evaluation function E of each part exceeds a predetermined threshold. The evaluation in this case is performed from the upper part of the tree structure. In other words, in the case of human beings, it starts from the body.
The evaluation function E exceeds the threshold and outputs the selected part to the motion knowledge unit 101. This operation is performed until the evaluation function of each part does not exceed the threshold value. In addition, after the model is determined, when the evaluation function of each part becomes larger than the threshold value, the model is switched by the above method.

【0170】この第6実施形態によれば、モデルの情報
量を減少することができ、より多くの動作の解析を行う
ことができる。
According to the sixth embodiment, the information amount of the model can be reduced, and more motions can be analyzed.

【0171】次に第7実施形態としての時系列画像解析
装置について説明する。
Next, a time series image analysis apparatus as the seventh embodiment will be described.

【0172】本実施形態の全体的な構成は、第1実施形
態と同等であり、異なる構成について説明する。本実施
形態は、複数のモデルから解析対象画像に最適なモデル
の選択する方法に関するものである。
The overall configuration of this embodiment is the same as that of the first embodiment, and a different configuration will be described. The present embodiment relates to a method of selecting an optimal model for an analysis target image from a plurality of models.

【0173】図35は、第7実施形態の時系列画像解析
装置の構成を示し、同じ構成部位には同一の参照符号を
付し、説明する。
FIG. 35 shows the structure of the time-series image analysis device according to the seventh embodiment, and the same components will be assigned the same reference numerals and described.

【0174】この時系列画像解析装置において、入力部
1からの入力信号は、A/D部2、バッファメモリ部3
を経由して補助入出力部4に保存され、該補助入出力部
4の出力信号は形状生成部5へ出力される。形状生成部
5の出力は、対象物モデル部6、解析部111に転送さ
れる。
In this time series image analysis device, the input signal from the input unit 1 is the A / D unit 2 and the buffer memory unit 3.
Is stored in the auxiliary input / output unit 4 via the, and the output signal of the auxiliary input / output unit 4 is output to the shape generation unit 5. The output of the shape generation unit 5 is transferred to the object model unit 6 and the analysis unit 111.

【0175】対象物モデル部6は、解析部111に接続
される。解析部111の出力は、モデル決定部112と
画像生成部12に接続されている。モデル決定部112
の出力は、対象物モデル部6に出力される。画像生成部
12の出力は、D/A部9を経由して、出力部10へ出
力される。また、制御部11からの制御信号により、入
力部1、補助入出力部4、対象物モデル部6、解析部1
11、モデル決定部112、出力部10がそれぞれ制御
される。
The object model unit 6 is connected to the analysis unit 111. The output of the analysis unit 111 is connected to the model determination unit 112 and the image generation unit 12. Model determination unit 112
Is output to the object model unit 6. The output of the image generation unit 12 is output to the output unit 10 via the D / A unit 9. Further, according to a control signal from the control unit 11, the input unit 1, the auxiliary input / output unit 4, the object model unit 6, the analysis unit 1
11, the model determination unit 112, and the output unit 10 are controlled.

【0176】このような時系列画像解析装置において、
CCDカメラ等の入力部1は、制御部11からの制御に
基づき所定時間の映像信号をA/D部2へ転送する。A
/D部2は入力部1からの上記映像信号を、デジタル信
号へ変換してバッファメモリ部3へ転送する。バッファ
メモリ部3は複数のフレームメモリで構成され、A/D
部2からの上記デジタル信号を記憶し、これを順次、補
助入出力部4へ出力する。
In such a time series image analysis device,
The input unit 1 such as a CCD camera transfers a video signal for a predetermined time to the A / D unit 2 under the control of the control unit 11. A
The / D section 2 converts the video signal from the input section 1 into a digital signal and transfers it to the buffer memory section 3. The buffer memory unit 3 is composed of a plurality of frame memories, and the A / D
The digital signal from the section 2 is stored and sequentially output to the auxiliary input / output section 4.

【0177】上記補助入出力部4は、制御部11からの
制御信号により、上記デジタル信号を形状生成部5へ出
力する。形状生成部5では、対象物のシルエット領域を
抽出する。形状生成部5で生成されたシルエット画像
は、対象物モデル部6、解析部111に転送される。対
象物モデル部6は、対象物の形状や複数の動作の情報な
どが格納されている。
The auxiliary input / output section 4 outputs the digital signal to the shape generation section 5 in response to a control signal from the control section 11. The shape generator 5 extracts the silhouette area of the object. The silhouette image generated by the shape generation unit 5 is transferred to the object model unit 6 and the analysis unit 111. The object model unit 6 stores information such as the shape of the object and a plurality of motions.

【0178】また解析部111では、複数のモデルに対
して解析を行い、対象物の各部位の位置や傾斜角のパラ
メータの算出を行う。この解析部111で算出された複
数モデルに対する各部位のパラメータは、制御部11か
らの制御信号に基づいて、モデル決定部112と画像生
成部12へ出力される。モデル決定部112では、解析
部111の出力により、複数のモデルに対して算出され
た評価関数の最小値をもつモデルの抽出を行い、モデル
の決定を行う。
Further, the analysis unit 111 analyzes a plurality of models and calculates the parameters of the position and inclination angle of each part of the object. The parameters of each part for the plurality of models calculated by the analysis unit 111 are output to the model determination unit 112 and the image generation unit 12 based on the control signal from the control unit 11. The model determination unit 112 extracts the model having the minimum value of the evaluation function calculated for the plurality of models based on the output of the analysis unit 111, and determines the model.

【0179】そしてモデル決定部112で決定されたモ
デルを対象物モデル部6に出力し、以降の解析には決定
されたモデルに関する情報が対象物モデル部6から出力
されるようになる。解析部111の出力を制御部11か
らの制御に基づき、画像生成部12を経由してD/A部
9に転送し、アナログ信号に変換する。さらに制御部1
1からの制御信号により、上記アナログ信号をディスプ
レイなどの出力部10へ出力し、画像解析結果を表示す
る。
Then, the model determined by the model determination unit 112 is output to the object model unit 6, and the information about the determined model is output from the object model unit 6 for the subsequent analysis. Under the control of the control unit 11, the output of the analysis unit 111 is transferred to the D / A unit 9 via the image generation unit 12 and converted into an analog signal. Further control unit 1
The analog signal is output to the output unit 10 such as a display according to the control signal from No. 1 to display the image analysis result.

【0180】図36は、前述した解析部111の処理に
おけるブロック構成を示し、図37は、複数モデルから
時系列画像中の対象物に最適なモデルの選択法に関する
概念を示す。
FIG. 36 shows a block configuration in the processing of the above-mentioned analysis unit 111, and FIG. 37 shows a concept regarding a method of selecting an optimum model from a plurality of models for an object in a time series image.

【0181】形状生成部5のシルエット画像は、方向決
定部121に出力され、方向決定部121の出力は対象
物モデル部6にフィードバックする。この形状生成部5
のシルエット画像と、対象物モデル部6の各モデルは、
パラメータ算出部122に出力される。パラメータ算出
部122の出力は、整合部123に転送され、制御部1
1からの制御信号により、モデル決定部112及び画像
生成部12に出力される。
The silhouette image of the shape generating section 5 is output to the direction determining section 121, and the output of the direction determining section 121 is fed back to the object model section 6. This shape generator 5
Of the silhouette image and each model of the object model section 6,
It is output to the parameter calculation unit 122. The output of the parameter calculation unit 122 is transferred to the matching unit 123, and the control unit 1
It is output to the model determination unit 112 and the image generation unit 12 according to the control signal from 1.

【0182】そして方向決定部121では、形状生成部
5のシルエット画像の面積に基づいて、対象物の移動方
向の検出を行う。具体的には、シルエット画像の面積が
時刻とともに変化しない場合には、カメラ光軸方向に対
して垂直方向に、時刻とともに増減する場合、カメラの
光軸方向に対して平行または斜めに移動している。
Then, the direction determining unit 121 detects the moving direction of the object based on the area of the silhouette image of the shape generating unit 5. Specifically, when the area of the silhouette image does not change with time, it moves in a direction perpendicular to the camera optical axis direction, and when it increases or decreases with time, it moves in parallel or diagonally with respect to the camera optical axis direction. There is.

【0183】つまり、シルエット画像の面積の増減の割
合で、移動方向の決定を行う。検出された移動方向を対
象物モデル部6にフィードバックする。対象物の移動方
向検出は、シルエットの重心点をベクトルとして検出す
ることで決定したり、シルエット画像を包含する外接四
角形の面積や中心を検出することも可能である。形状生
成部5のシルエット画像と対象物モデル部6の検出され
た移動方向に対応する複数のモデルをパラメータ算出部
122に出力する。
That is, the moving direction is determined by the rate of increase / decrease in the area of the silhouette image. The detected moving direction is fed back to the object model unit 6. The moving direction of the object can be detected by detecting the center of gravity of the silhouette as a vector, or the area or center of the circumscribed quadrangle that includes the silhouette image can be detected. A plurality of models corresponding to the silhouette image of the shape generation unit 5 and the detected moving direction of the object model unit 6 are output to the parameter calculation unit 122.

【0184】例えば、人物の動作解析の場合、歩行,走
行,着席,静止等の複数のモデルが対象物モデル部6に
格納されており、形状に関するモデルと方向決定部12
1で検出された方向の動作に関するモデルがパラメータ
算出部122に出力される。パラメータ算出部122で
は、前述した実施形態におけるパラメータ算出部7と同
様にそれぞれのモデルを用いて概略的なパラメータの算
出を行う。整合部123は、パラメータ算出部122の
出力と形状生成部5と対象物モデル部6の各モデルから
前記実施形態整合部8と同様に時系列画像中の対象物に
最適なパラメータを算出し、最適化処理後の評価関数E
(モデルとのマッチング誤差)の算出を行う。その際、
動作と同期がとれない、つまり、前記実施形態での同期
部21における面積誤差が所定の閾値より大きかった場
合には、そのモデルは破棄され、以降の処理は行わな
い。
For example, in the case of motion analysis of a person, a plurality of models such as walking, running, sitting, and still are stored in the object model unit 6, and a model relating to the shape and the direction determining unit 12 are stored.
The model related to the motion in the direction detected in 1 is output to the parameter calculation unit 122. The parameter calculation unit 122 roughly calculates the parameters by using each model as in the parameter calculation unit 7 in the above-described embodiment. The matching unit 123 calculates the optimum parameters for the target object in the time-series image from the output of the parameter calculation unit 122 and each model of the shape generation unit 5 and the target object model unit 6, as in the matching unit 8 of the embodiment. Evaluation function E after optimization processing
(Matching error with model) is calculated. that time,
If it is not synchronized with the operation, that is, if the area error in the synchronization unit 21 in the above embodiment is larger than a predetermined threshold value, the model is discarded and the subsequent processing is not performed.

【0185】そして同期のとれたモデルに対し、前記実
施形態と同様に最適化処理を行う。上記整合部123の
出力は、制御部11からの制御信号により、モデル決定
部112と画像生成部12に転送される。但し、パラメ
ータ算出部と整合部は対象物モデル部6に格納されてい
るモデルの数だけ増やすことができ、また並列に処理を
行うことができる。なお、モデルが決定している場合、
整合部123の出力は、モデル決定部112に転送され
ず、パラメータ算出部と整合部は1つだけ使用される。
Then, the optimization process is performed on the synchronized model in the same manner as in the above embodiment. The output of the matching unit 123 is transferred to the model determination unit 112 and the image generation unit 12 according to a control signal from the control unit 11. However, the number of parameter calculation units and matching units can be increased by the number of models stored in the object model unit 6, and processing can be performed in parallel. If the model has been decided,
The output of the matching unit 123 is not transferred to the model determination unit 112, and only one parameter calculation unit and one matching unit are used.

【0186】上記モデル決定部112では、整合部12
3から出力された複数の評価関数Eの中から最小のもの
を最適モデルとして選択する。選択されたモデルを対象
物モデル部6にフィードバックし、以降の解析には対象
物モデル部6から決定されたモデルが出力されるように
なる。この後、選択されたモデルを用いて処理を継続
し、評価関数Eが所定値を越えた場合にモデルの再選択
を行うことを繰り返す。なお、このような処理により、
対象物の動作が決まっていない場合でも、解析を行うこ
とができる。この処理は並列でなく、最適化処理の誤差
を1モデルづつ算出し、最後に誤差の最小なモデルを選
択することも可能である。
In the model determining unit 112, the matching unit 12
The smallest one is selected from the plurality of evaluation functions E output from 3 as the optimum model. The selected model is fed back to the target object model unit 6, and the model determined by the target object model unit 6 is output for the subsequent analysis. After that, the process is continued using the selected model, and when the evaluation function E exceeds a predetermined value, the model is reselected again. In addition, by such processing,
Analysis can be performed even when the motion of the object is not determined. This process is not parallel, and it is also possible to calculate the error of the optimization process for each model and finally select the model with the smallest error.

【0187】次に第8実施形態としての時系列画像解析
装置について説明する。
Next, a time series image analysis apparatus as an eighth embodiment will be described.

【0188】本実施形態の全体的な構成は、第2実施形
態と同等であり、異なる構成について説明する。本実施
形態は、処理を行う優先順位を考慮することで、ある部
位のパラメータが決定すると、それと結合関係にある全
ての部位の候補領域をより限定し、最適化処理を高速に
行うものである。
The overall configuration of this embodiment is the same as that of the second embodiment, and a different configuration will be described. In the present embodiment, when the parameters of a certain part are determined by considering the priority order of processing, the candidate regions of all the parts having a connection relation with the part are further limited, and the optimization process is performed at high speed. .

【0189】図38は、第8実施形態の時系列画像解析
装置におけるパラメータ算出部の構成を示し、同じ構成
部位には同一の参照符号を付し、説明する。
FIG. 38 shows the configuration of the parameter calculation unit in the time-series image analysis device of the eighth embodiment, and the same components will be assigned the same reference numerals and described.

【0190】このパラメータ算出部においては、対象物
モデル部6と形状生成部5の出力は、候補領域算出部1
31に転送される。候補領域算出部131では、時系列
画像中の対象物の各部位の候補領域を算出し、誤差が少
ない、つまり候補領域の面積が小さい部位に関して優先
的に処理を行い、他の部位の候補領域の限定を行う。候
補領域算出部131の出力は、候補領域算出部131と
整合部8に転送される。
In this parameter calculation unit, the outputs of the object model unit 6 and the shape generation unit 5 are the candidate region calculation unit 1
31 is transferred. The candidate area calculation unit 131 calculates a candidate area of each part of the target object in the time-series image, preferentially processes a part having a small error, that is, a small area of the candidate area, and selects a candidate area of another part. Make a limitation. The output of the candidate area calculation unit 131 is transferred to the candidate area calculation unit 131 and the matching unit 8.

【0191】図39は、処理の優先順位の導入による、
時系列画像中の対象物の各部位の存在候補領域の算出に
おける概念を示す図である。
FIG. 39 shows the introduction of processing priority.
It is a figure which shows the concept in calculation of the presence candidate area | region of each part of the target object in a time series image.

【0192】まず、候補領域算出部131では、第2実
施形態の候補領域算出部31と同様に存在可能領域1と
シルエット画像とのAND処理にて候補領域1を求め
る。候補領域1の中で誤差が少ないと推定できる領域、
つまり面積の所定の閾値より小さい候補領域、例えば人
間の場合、頭部や胴体部や手部に関しては、候補領域の
重心点を中心とする楕円を発生させ、シルエット画像と
のマッチングをとることでパラメータの算出を行う。
First, the candidate area calculation unit 131 obtains the candidate area 1 by AND processing of the possible existence area 1 and the silhouette image similarly to the candidate area calculation unit 31 of the second embodiment. A region in the candidate region 1 that can be estimated to have a small error,
In other words, for a candidate area smaller than a predetermined threshold of area, for example, in the case of a human, an ellipse centered on the center of gravity of the candidate area is generated for a head, a body, and a hand, and matching with a silhouette image is performed. Calculate parameters.

【0193】この3点の位置が確定すると、他の部位の
存在しうる領域は限定される。つまり、確定された部位
と結合関係にある部位の間の関節角や各部位の長さなど
の拘束条件を用いるとより限定された候補領域が算出さ
れる。
When the positions of these three points are determined, the regions where other parts can exist are limited. In other words, a more limited candidate area is calculated by using constraint conditions such as the joint angle between the determined part and the part having a connection relationship and the length of each part.

【0194】具体的には、対象物が人間の場合、候補領
域1の面積が小さい頭部・胴体部・手部が優先的に処理
され、位置が確定する。頭部及び胴体部の位置が確定す
ると、各部位の長さから存在可能領域1が存在可能領域
2のように限定された領域となる。即ち、胴体部の中心
点から(2)式を用いて、肩の位置を算出する。そして
肩の位置を中心とする半径rの円を考える。ここで、半
径rとは、上腕部の領域に関しては(上腕部の長さ/
2)、前腕部の領域に関しては(上腕部+前腕部/
2)、手部に関しては(上腕部+前腕部+手部/2)の
ことを示す。
Specifically, when the object is a human, the head / body / hand part having a small area of the candidate area 1 is preferentially processed to determine the position. When the positions of the head and the body are determined, the possible area 1 becomes a limited area such as the possible area 2 based on the length of each part. That is, the position of the shoulder is calculated from the center point of the body part using the equation (2). Then, consider a circle having a radius r centered on the position of the shoulder. Here, the radius r refers to the area of the upper arm (length of the upper arm /
2) Regarding the area of the forearm (upper arm + forearm /
2) Regarding the hand, it means (upper arm + forearm + hand / 2).

【0195】次に、前述した中心点と半径をもつ円と存
在可能領域1の共通部分の算出を行い、存在可能領域2
の抽出を行う。第2実施形態と同様に、存在可能領域2
とシルエット画像のAND処理にて候補領域2を算出
し、この領域を利用して各部位の各位置や傾斜角および
許容範囲の算出を行う。
Next, the common part of the circle having the center point and the radius described above and the possible area 1 is calculated, and the possible area 2 is calculated.
Is extracted. Like the second embodiment, the possible area 2
The candidate area 2 is calculated by AND processing of the silhouette image, and the position, inclination angle, and allowable range of each part are calculated using this area.

【0196】また、図39に示す破線のように、候補領
域1から候補領域2を直接抽出する手法を以下に示す。
A method of directly extracting the candidate area 2 from the candidate area 1 as shown by the broken line in FIG. 39 is shown below.

【0197】まず、確定された胴体部の中心点から肩の
位置を(2)式より算出する。例えば、各部位間の長さ
を利用して前腕部領域を限定する場合、手部や肩の中心
点を中心とする半径(手部の長さ/2+前腕部の長さ/
2+ε0 )、(上腕部の長さ+前腕部の長さ/2+ε0
)の円を考える。ここで、手部の候補領域の面積の例
えば10%をε0 とする。この2つの円と候補領域1の
共通領域を候補領域2とする。
First, the position of the shoulder from the determined center point of the body portion is calculated by the equation (2). For example, when the forearm region is limited by using the length between the parts, a radius (the length of the hand / 2 the length of the forearm / the center of the center point of the hand or shoulder)
2 + ε0), (upper arm length + forearm length / 2 + ε0
) Consider the circle. Here, for example, 10% of the area of the candidate region of the hand portion is set as ε0. The common area between the two circles and the candidate area 1 is referred to as a candidate area 2.

【0198】同様に、他の部位に関しても、候補領域1
より限定された候補領域2の算出を行う。また、肩と手
部のなす角度は肩と前腕部及び肩と上腕部のなす角度よ
り大きい。また肩と前腕部のなす角度は、肩と上腕部の
なす角度より大きいという、上記例に関する各関節間の
角度の拘束条件から、より限定された候補領域2を得る
ことができる。
Similarly, for other regions, the candidate region 1
The more limited candidate area 2 is calculated. The angle formed by the shoulder and the hand is larger than the angle formed by the shoulder and the forearm and between the shoulder and the upper arm. Further, the angle between the shoulder and the forearm is larger than the angle between the shoulder and the upper arm, and a more limited candidate region 2 can be obtained from the constraint condition of the angle between the joints in the above example.

【0199】図40は、限定された候補領域2の算出に
関する概念を示す図である。候補領域2を用いて、第2
実施形態と同様に、各部位の各位置や傾斜角および許容
範囲の算出を行う。
FIG. 40 is a diagram showing a concept related to calculation of the limited candidate area 2. Second using candidate area 2
Similar to the embodiment, each position of each part, the tilt angle, and the allowable range are calculated.

【0200】制御部11からの制御信号により、これら
のパラメータ群は、整合部8に出力され、最適化処理を
行う。時間軸上での最適化処理では、確定された頭部と
胴体部と手部を処理の対象から外すことができる。ま
た、微小変化を与える頻度を少なくするなどにより処理
を高速化できる。
In response to a control signal from the control unit 11, these parameter groups are output to the matching unit 8 to perform optimization processing. In the optimization process on the time axis, the confirmed head, body, and hand can be excluded from the processing target. Further, the processing can be speeded up by reducing the frequency of giving a minute change.

【0201】この第8実施形態によれば、確度の高い部
位の位置を優先的に確定し、これをもとにして他の部位
について適正な初期値からの最適化を行うため、最適化
処理を高速化することができる。
According to the eighth embodiment, the position of a highly accurate part is preferentially determined, and other parts are optimized from proper initial values based on this, so that the optimization process is performed. Can be speeded up.

【0202】次に第9実施形態としての時系列画像解析
装置について説明する。
Next, a time series image analysis apparatus as the ninth embodiment will be described.

【0203】図41には、第9実施形態の整合部72の
具体的な構成例を示す。本実施形態の全体的な構成は、
第5実施形態と同等であり、異なる構成について説明す
る。本実施形態は、過去の最適化情報を用いて予測を行
い高速に処理を行うものである。
FIG. 41 shows a specific structural example of the matching section 72 of the ninth embodiment. The overall configuration of this embodiment is
This is equivalent to the fifth embodiment, and a different configuration will be described. In the present embodiment, prediction is performed using past optimization information and high-speed processing is performed.

【0204】この整合部72において、形状生成部5と
対象物モデル部71の出力が同期部21に入力され、こ
の同期部21と対象物モデル部71の出力は、周期校正
部22に転送される。形状生成部5と対象物モデル部7
1とパラメータ算出部7と同期部21と周期校正部22
のそれぞれの出力は、パラメータ修正部23に送出され
る。また、形状生成部5と対象物モデル部71とパラメ
ータ修正部23の出力は、最適化処理部24に転送す
る。最適化処理部24の出力は、動きベクトル算出部1
41と画像生成部12に転送される。動きベクトル算出
部141での出力は最適化処理部24にフィードバック
する。
In the matching section 72, the outputs of the shape generating section 5 and the object model section 71 are input to the synchronizing section 21, and the outputs of the synchronizing section 21 and the object model section 71 are transferred to the period calibrating section 22. It Shape generation unit 5 and object model unit 7
1, parameter calculation unit 7, synchronization unit 21, and period calibration unit 22
The respective outputs of the above are sent to the parameter correction unit 23. The outputs of the shape generation unit 5, the object model unit 71, and the parameter correction unit 23 are transferred to the optimization processing unit 24. The output of the optimization processing unit 24 is the motion vector calculation unit 1
41 and the image generation unit 12. The output from the motion vector calculation unit 141 is fed back to the optimization processing unit 24.

【0205】そして上記同期部21では、対象物モデル
部71と形状生成部5の出力に基づき、時系列画像中の
対象物と対象物モデル部71における動作に関する時刻
の同期をとる。上記周期校正部22では、対象となる動
作に周期性がある場合、各部位の位置や傾斜角のモデル
のパラメータの校正を行う。パラメータ修正部23で
は、一画像内でモデルとの対比による時系列画像のパラ
メータの修正を行う。
Then, the synchronizing section 21 synchronizes the time of the operation in the object model section 71 with the object in the time series image based on the outputs of the object model section 71 and the shape generating section 5. When the target operation has a periodicity, the cycle calibration unit 22 calibrates the parameters of the model of the position and inclination angle of each part. The parameter correction unit 23 corrects the parameters of the time-series image by comparing with the model in one image.

【0206】図42は、動きベクトル算出の概念を示
し、図43には、予測を利用した最適化処理の概念を示
す。
FIG. 42 shows the concept of motion vector calculation, and FIG. 43 shows the concept of optimization processing using prediction.

【0207】最適化処理部24では、まず最初の数枚
(例えば5枚)のみ、前記実施形態と同様な方法で最適
化処理を行う。制御部11の制御に基づき、最適化され
たパラメータを動きベクトル算出部141に出力する。
動きベクトル算出部141では、最適化処理部24で算
出されたパラメータが過去数枚分記憶され、これらから
次時刻の最適解(パラメータ)を予測する。予測の方法
は、時刻に対する各パラメータの変化から、線形予測を
用いてもよい。また部位の位置・傾斜角から動きベクト
ルを求め、これを利用することにより行うことができ
る。算出された次時刻のパラメータは、最適化処理部2
4に出力され、前記実施形態のモデルのパラメータを動
きベクトル算出部141で予測されたパラメータに置き
換え、アニーリング等の最適化処理を行う。
In the optimization processing section 24, only the first few sheets (for example, five sheets) are subjected to the optimization processing by the same method as in the above embodiment. Based on the control of the control unit 11, the optimized parameter is output to the motion vector calculation unit 141.
The motion vector calculation unit 141 stores the parameters calculated by the optimization processing unit 24 for the past several sheets, and predicts the optimum solution (parameter) at the next time from them. As the prediction method, linear prediction may be used from the change of each parameter with respect to time. Further, it can be performed by obtaining a motion vector from the position / tilt angle of the part and using it. The parameter of the calculated next time is used by the optimization processing unit 2
4, the parameters of the model of the embodiment described above are replaced with the parameters predicted by the motion vector calculation unit 141, and optimization processing such as annealing is performed.

【0208】以降の処理では、動きベクトル算出部7で
予測したパラメータを用い、パラメータ修正部23、パ
ラメータ算出部7を省略することができる。但し、この
場合、同期部21、同期校正部22の出力は、最適化処
理部24へ転送される。また、最適化処理部24で算出
される評価関数Eが所定の閾値を越えた場合、パラメー
タ算出部7、パラメータ修正部23の処理を行う。
In the subsequent processing, the parameters predicted by the motion vector calculation unit 7 are used, and the parameter correction unit 23 and the parameter calculation unit 7 can be omitted. However, in this case, the outputs of the synchronization unit 21 and the synchronization calibration unit 22 are transferred to the optimization processing unit 24. Further, when the evaluation function E calculated by the optimization processing unit 24 exceeds a predetermined threshold value, the processing of the parameter calculation unit 7 and the parameter correction unit 23 is performed.

【0209】この第9実施形態では、前時刻のパラメー
タから予測したパラメータを用いるため、時間的な連続
性が良好となる最適化処理を行うことができる。
In the ninth embodiment, since the parameter predicted from the parameter at the previous time is used, it is possible to perform the optimization processing which has good temporal continuity.

【0210】次に第10実施形態としての時系列画像解
析装置について説明する。
Next, a time series image analysis device as a tenth embodiment will be described.

【0211】図44には、第10実施形態の整合部の具
体的な構成例を示す。本実施形態の全体的な構成は、第
5実施形態と同等であり、異なる構成について説明す
る。
FIG. 44 shows a specific structural example of the matching section of the tenth embodiment. The overall configuration of this embodiment is equivalent to that of the fifth embodiment, and a different configuration will be described.

【0212】本実施形態は、各部位の時系列画像のパラ
メータとモデルのパラメータとの誤差を算出し、誤差つ
まりパラメータの調整度に応じて微小変化の与え方を変
化させるものである。
In this embodiment, the error between the parameter of the time series image of each part and the parameter of the model is calculated, and the way of making a minute change is changed according to the error, that is, the adjustment degree of the parameter.

【0213】この整合部72において、形状生成部5と
対象物モデル部71の出力は、同期部21に転送され
る。同期部21と対象物モデル部71の出力は、周期校
正部22に転送される。形状生成部5と対象物モデル部
71とパラメータ算出部7と同期部21と周期校正部2
2はパラメータ修正部23に出力される。形状生成部5
と対象物モデル部71とパラメータ修正部23の出力
は、最適化処理部24に転送する。最適化処理部24と
対象物モデル部71の出力は、制御部11の制御に基づ
き調整度算出部151へ、最適化処理部24の出力は、
画像生成部12に転送される。調整度算出部151での
出力は対象物モデル部71にフィードバックする。
In the matching section 72, the outputs of the shape generating section 5 and the object model section 71 are transferred to the synchronizing section 21. The outputs of the synchronization unit 21 and the object model unit 71 are transferred to the period calibration unit 22. The shape generation unit 5, the object model unit 71, the parameter calculation unit 7, the synchronization unit 21, and the period calibration unit 2
2 is output to the parameter correction unit 23. Shape generator 5
The outputs of the object model unit 71 and the parameter correction unit 23 are transferred to the optimization processing unit 24. The outputs of the optimization processing unit 24 and the object model unit 71 are output to the adjustment degree calculating unit 151 under the control of the control unit 11, and the outputs of the optimization processing unit 24 are
It is transferred to the image generation unit 12. The output from the adjustment degree calculation unit 151 is fed back to the object model unit 71.

【0214】そして同期部21では、対象物モデル部7
1と形状生成部5の出力に基づき、時系列画像中の対象
物と対象物モデル部71における動作に関する時刻の同
期をとる。周期校正部22では、対象となる動作に周期
性がある場合、各部位の位置や傾斜角のモデルのパラメ
ータの校正を行う。パラメータ修正部23では、一画像
内でモデルとの対比による時系列画像のパラメータの修
正を行う。
Then, in the synchronizing section 21, the object model section 7
Based on 1 and the output of the shape generation unit 5, the time in the operation of the object model unit 71 and the object in the time-series image are synchronized. The cycle calibrating unit 22 calibrates the parameters of the model of the position and the tilt angle of each part when the target operation has periodicity. The parameter correction unit 23 corrects the parameters of the time-series image by comparing with the model in one image.

【0215】図45は、調整度算出の概念を示す図であ
る。つまり最適化処理部24では、パラメータ修正部2
3の出力に基づいて、1周期目のみ前記実施形態と同様
な方法でアリーニング等の最適化処理を行う。制御部1
1からの制御信号により、最適化処理部24で算出され
たパラメータを調整度算出部151に出力する。この調
整度算出部151では、最適化処理部24で算出された
パラメータと対象物モデル部71のパラメータの差に応
じて調整度の算出を行う。ここで調整度とは、最適化処
理部24の微小変化の与え方を示すものである。調整度
の算出方法は、最適化処理部24で算出されたパラメー
タと対象物モデル部71のパラメータの差を算出し、そ
の差の例えば10%を調整度とする。つまり、調整度の
値が大きいほど、そのパラメータを調整する必要がある
ため、微小変化の与え方を他の部位より大きくする。
FIG. 45 is a diagram showing the concept of the adjustment degree calculation. That is, in the optimization processing unit 24, the parameter correction unit 2
Based on the output of No. 3, optimization processing such as arening is performed only in the first cycle by the same method as in the above embodiment. Control unit 1
The parameter calculated by the optimization processing unit 24 is output to the adjustment degree calculation unit 151 in response to the control signal from 1. The adjustment degree calculation unit 151 calculates the adjustment degree according to the difference between the parameter calculated by the optimization processing unit 24 and the parameter of the object model unit 71. Here, the adjustment degree indicates how the optimization processing unit 24 gives a minute change. As the method of calculating the adjustment degree, the difference between the parameter calculated by the optimization processing unit 24 and the parameter of the object model unit 71 is calculated, and 10% of the difference is used as the adjustment degree. That is, as the value of the degree of adjustment is larger, the parameter needs to be adjusted, so that the method of giving a minute change is set to be larger than that of other parts.

【0216】そして算出された調整度は、最適化処理部
24に出力される。最適化処理部24では、調整度に基
づいて微小変化を次のようにして算出する。例えば、乱
数を用いて与えられた初期の微小変化に調整度を乗じた
ものを微小変化に加えた値を新たな微小変化とする。
The calculated adjustment degree is output to the optimization processing section 24. The optimization processing unit 24 calculates a minute change based on the adjustment degree as follows. For example, a value obtained by multiplying the initial minute change given by using a random number by the adjustment degree to the minute change is set as a new minute change.

【0217】次に2周期目以降は、この調整度を用いて
最適化処理を行う。制御部11からの制御信号により、
最適化処理部24で算出されたパラメータが画像生成部
12に転送される。なお、調整度の与え方は、各部位毎
に与えるのではなく、画像単位で与えることもできる。
図45(b)は、歩行動作の調整度算出に関する概念図
である。例えば、歩行動作の場合では両手・両足が重な
らない状況では各部位の調整度は低く、画像全体の調整
度も低くなる。一方、両手・両足が重なり後ろの手や足
が隠れてしまう場合は調整度が高くなる。画像単位の調
整度は、静止画像のレベルで得られたパラメータから楕
円画像を生成し、シルエット画像との差とすることもで
きる。また、一周期単位で処理を行う場合、調整度の高
い画像への微小変化の付与を抑制することもできる。
Next, in the second and subsequent cycles, optimization processing is performed using this adjustment degree. By the control signal from the control unit 11,
The parameters calculated by the optimization processing unit 24 are transferred to the image generation unit 12. It should be noted that the degree of adjustment may be given not for each part but for each image.
FIG. 45B is a conceptual diagram related to calculation of the adjustment degree of walking motion. For example, in the case of a walking motion, the degree of adjustment of each part is low and the degree of adjustment of the entire image is low when the hands and feet do not overlap each other. On the other hand, when both hands and feet overlap and the back hands and feet are hidden, the degree of adjustment is high. The degree of adjustment in image units can be the difference from the silhouette image by generating an elliptical image from the parameters obtained at the level of a still image. Further, when processing is performed on a cycle-by-cycle basis, it is possible to suppress the addition of minute changes to an image with a high degree of adjustment.

【0218】この第10実施形態によれば、各部位のパ
ラメータの調整度つまり、誤差に応じて最適化処理にて
扱う微小変化の与え方を変化させるため、処理を高速化
に行うことができる。
According to the tenth embodiment, the degree of adjustment of the parameters of each part, that is, the way of giving a minute change handled in the optimization processing is changed according to the error, so that the processing can be performed at high speed. .

【0219】次に第11実施形態としての時系列画像解
析装置について説明する。
Next, a time series image analysis apparatus as the eleventh embodiment will be described.

【0220】図46には、第11実施形態の整合部の具
体的な構成例を示す。本実施形態の全体的な構成は、第
5実施形態と同等であり、異なる構成について説明す
る。
FIG. 46 shows a specific structural example of the matching section of the eleventh embodiment. The overall configuration of this embodiment is equivalent to that of the fifth embodiment, and a different configuration will be described.

【0221】本実施形態は、パラメータ修正部23での
修正情報を用いて、最適化処理の微小変化の与え方を限
定するものである。
In this embodiment, the correction information in the parameter correction unit 23 is used to limit how to give a minute change in the optimization process.

【0222】この整合部72において、形状生成部5と
対象物モデル部71の出力は、同期部21に転送され
る。同期部21と対象物モデル部7の出力は、周期校正
部22に転送される。形状生成部5と対象物モデル部7
1とパラメータ算出部7と同期部21と周期校正部22
はパラメータ修正部23に出力される。形状生成部5と
対象物モデル部71とパラメータ修正部23の出力は、
最適化処理部24に転送する。パラメータ修正部23と
最適化処理部24の出力は、制御部11の制御に基づき
確信度算出部161へ、最適化処理部24の出力は、画
像生成部12に転送される。確信度算出部161での出
力は最適化処理部24にフィードバックする。
In the matching section 72, the outputs of the shape generating section 5 and the object model section 71 are transferred to the synchronizing section 21. The outputs of the synchronization unit 21 and the object model unit 7 are transferred to the period calibration unit 22. Shape generation unit 5 and object model unit 7
1, parameter calculation unit 7, synchronization unit 21, and period calibration unit 22
Is output to the parameter correction unit 23. The outputs of the shape generation unit 5, the object model unit 71, and the parameter correction unit 23 are
It is transferred to the optimization processing unit 24. The outputs of the parameter correction unit 23 and the optimization processing unit 24 are transferred to the certainty factor calculation unit 161, under control of the control unit 11, and the outputs of the optimization processing unit 24 are transferred to the image generation unit 12. The output from the certainty factor calculation unit 161 is fed back to the optimization processing unit 24.

【0223】そして同期部21では、対象物モデル部7
1と形状生成部5の出力に基づき、時系列画像中の対象
物と対象物モデル部71における動作に関する時刻の同
期をとる。周期校正部22では、対象となる動作に周期
性がある場合、各部位の位置や傾斜角のモデルのパラメ
ータの校正を行う。パラメータ修正部23では、一画像
内でモデルとの対比による時系列画像のパラメータの修
正を行う。パラメータ修正部23で行われる時系列画像
のパラメータとモデルのパラメータの差が所定の閾値以
下と判断された部位(信頼性:高)、差が閾値以上でモ
デルとの置換を行った部位(信頼性:中)、差が閾値以
上でモデルとの置換が破棄された部位(信頼性:低)の
3段階の情報を確信度算出部161に転送する。図47
は、パラメータ修正部23で得られる情報に関する概念
を示す図である。
Then, in the synchronizing section 21, the object model section 7
Based on 1 and the output of the shape generation unit 5, the time in the operation of the object model unit 71 and the object in the time-series image are synchronized. The cycle calibrating unit 22 calibrates the parameters of the model of the position and the tilt angle of each part when the target operation has periodicity. The parameter correction unit 23 corrects the parameters of the time-series image by comparing with the model in one image. A part (reliability: high) in which the difference between the parameters of the time-series image and the parameter of the model performed by the parameter correction unit 23 is determined to be less than or equal to a predetermined threshold (reliability: high), and a part in which the difference is greater than or equal to the threshold (reliable Sex: medium), and the three-level information of a portion (reliability: low) in which the difference is equal to or larger than the threshold value and the replacement with the model is discarded is transferred to the certainty factor calculation unit 161. FIG. 47
FIG. 6 is a diagram showing a concept regarding information obtained by the parameter correction unit 23.

【0224】まず、確信度算出部161では、3つの分
類に基づき微小変化の与えかたを変える。例えば、差が
閾値以下の部位では閾値εを半径rとする円内の微小変
化を与え、差が閾値以上でモデルとの置換を行った部位
は置換前の部位があった方向(角度θ)を除く閾値εを
半径rとする円内で、差が閾値以上でモデルとの置換が
破棄された部位は閾値εの2倍を半径rとする円内の微
小変化を与える。
First, the certainty factor calculation unit 161 changes how to make a minute change based on the three classifications. For example, in a portion where the difference is less than or equal to the threshold value, a small change in a circle having a radius r as the threshold value ε is given, and in the portion where the difference is greater than or equal to the threshold value and the replacement with the model is performed, there is a direction before the replacement (angle θ). In a circle having a radius r with a threshold ε other than, the region where the replacement with the model is abandoned and the difference is greater than the threshold gives a minute change in the circle with a radius r that is twice the threshold ε.

【0225】次に算出された半径r、角度θは、最適化
処理部24に出力される。最適化処理部24では、半径
r、角度θの円内に、与えられた微小変化が存在するか
判断し、存在するならば、その微小変化を用いて最適化
を行う。図48は、確信度を利用した微小変化の与え方
の概念図である。制御部11の制御に基づき最適化処理
部24の出力が画像生成部12に転送される。
Next, the calculated radius r and angle θ are output to the optimization processing section 24. The optimization processing unit 24 determines whether or not a given minute change exists within a circle having a radius r and an angle θ, and if there is, a minute change is used to perform optimization. FIG. 48 is a conceptual diagram of how to make a minute change using the certainty factor. The output of the optimization processing unit 24 is transferred to the image generation unit 12 under the control of the control unit 11.

【0226】この第11実施形態によれば、パラメータ
の修正に関する情報を利用して、最適化処理にて扱う微
小変化を与える範囲を限定することで処理を高速化する
ことができる。
According to the eleventh embodiment, it is possible to speed up the processing by using the information regarding the correction of the parameters and limiting the range in which the minute change handled in the optimization processing is given.

【0227】以上の実施形態に基づいて説明したが、本
明細書には、以下のような発明も含まれる。
Although described based on the above embodiments, the present invention also includes the following inventions.

【0228】(1) 時系列画像中の所定の対象物を解
析する時系列画像解析装置において、 上記時系列画像
中の所定の時間範囲内の複数の画像から対象物であるシ
ルエット画像を抽出する形状生成手段と、上記対象物の
形状及び動きによる形状変化に関する知識を、上記対象
物を構成する部位のそれぞれについてパラメータとして
格納する対象物モデル手段と、上記形状生成手段によっ
て抽出された上記対象物から上記対象物モデル手段に格
納されたパラメータと対応したパラメータを算出するパ
ラメータ算出手段と、上記パラメータ算出手段から算出
された対応パラメータの全体と対象物モデル手段のパラ
メータの全体を照合し、誤差を最小化させることにより
整合させる整合手段と、を有することを特徴とする時系
列画像解析装置。
(1) In a time-series image analysis device for analyzing a predetermined object in a time-series image, a silhouette image which is an object is extracted from a plurality of images within a predetermined time range in the time-series image. Shape generation means, object model means for storing knowledge about the shape and movement of the object due to movement as parameters for each of the parts constituting the object, and the object extracted by the shape generation means. From the parameter calculation means for calculating the parameter corresponding to the parameter stored in the object model means, the entire corresponding parameter calculated from the parameter calculation means and the entire parameter of the object model means are collated, and the error is A time-series image analysis device, comprising: matching means for matching by minimizing.

【0229】この発明に関する実施形態は、第1,5,
7の実施形態が対応する。
The embodiments relating to the present invention are as follows:
The seven embodiments correspond.

【0230】従って、遮蔽などの影響で算出不可能であ
った時系列画像中の所定の対象物を構成する部位のパラ
メータは、モデルのパラメータに整合することによっ
て、対象物を認識し、対象物の動きを高精度に解析する
ことができる。
Therefore, the parameters of the parts constituting the predetermined object in the time-series image, which cannot be calculated due to the influence of the occlusion and the like, are matched with the parameters of the model to recognize the object, The movement of can be analyzed with high accuracy.

【0231】(2) 上記(1)項記載の時系列画像解
析装置の対象物モデル手段において、上記対象物の形状
に関する知識は、対象物を構成する複数の部位に分割
し、分割された各部位の大きさを対象物の全体の大きさ
に対する比率として定義し、また各部位間の接続関係を
テーブルに格納することを特徴とする時系列画像解析装
置。 この発明に関する実施形態は、第1の実施形態が
対応する。
(2) In the object model means of the time-series image analysis device described in the item (1), the knowledge about the shape of the object is divided into a plurality of parts constituting the object, and each divided object is divided. A time-series image analysis device characterized in that the size of a part is defined as a ratio to the overall size of an object, and the connection relationship between parts is stored in a table. The embodiment relating to the present invention corresponds to the first embodiment.

【0232】(3) 上記(1)項若しくは(2)項の
いずれか1項に記載の時系列画像解析装置の対象物モデ
ル手段において、上記時系列画像中から動領域を抽出
し、該動領域に外接する矩形を算出し、該矩形の縦方向
のサイズと予め格納してある、各部位の全体の大きさに
対する比率に基づき、各部位のサイズの修正を行い、対
象物のサイズを校正することを特徴とする時系列画像解
析装置。
(3) In the object model means of the time-series image analysis device described in any one of the above items (1) and (2), a moving region is extracted from the above-mentioned time-series image and the moving region is extracted. The rectangle circumscribing the area is calculated, and the size of each part is corrected based on the size of the rectangle in the vertical direction and the ratio of the total size of each part that is stored in advance, and the size of the object is calibrated. A time-series image analysis device characterized by:

【0233】この発明に関する実施形態は、第1の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the first embodiment.

【0234】従って、モデルのサイズを校正することで
多くの被写体に適用でき、撮影距離の差によるサイズの
違いも補正できる。
Therefore, by calibrating the size of the model, it can be applied to many subjects, and the difference in size due to the difference in shooting distance can be corrected.

【0235】(4) 上記(1)項に記載の時系列画像
解析装置において、上記パラメータを、上記時系列中の
上記対象物の各部位に対応する楕円の位置、傾き、大き
さとすることを特徴とする時系列画像解析装置。
(4) In the time-series image analysis device described in the item (1), the parameter may be the position, inclination, and size of an ellipse corresponding to each part of the object in the time series. Characteristic time-series image analysis device.

【0236】この発明に関する実施形態は、第1,2,
3,4,5,6,7,8,9,10,11の実施形態が
対応する。
The embodiments relating to the present invention are:
The embodiments of 3, 4, 5, 6, 7, 8, 9, 10, 11 correspond.

【0237】従って、対象物の形状を楕円で表現するこ
とにより、時系列画像中の対象物との整合が容易であ
る。
Therefore, by expressing the shape of the object with an ellipse, it is easy to match the object in the time-series image.

【0238】(5) 上記(1)項乃至(4)項のいず
れか1項に記載の時系列画像解析装置において、上記パ
ラメータの少なくとも1つは、パラメータの代表値とそ
の許容範囲とすることを特徴とする時系列画像解析装
置。
(5) In the time series image analysis device described in any one of the above items (1) to (4), at least one of the parameters is a representative value of the parameter and its allowable range. A time-series image analysis device.

【0239】この発明に関する実施形態は、第2,8の
実施形態が対応する。
The embodiments relating to the present invention correspond to the second and eighth embodiments.

【0240】従って、上記のパラメータを決定する際に
各部位のパラメータの許容範囲の算出を行ことにより、
算出した各パラメータ解の柔軟性をもたすことができ
る。
Therefore, when the above parameters are determined, the allowable range of the parameters of each part is calculated,
Flexibility of each calculated parameter solution can be provided.

【0241】(6) 上記(1)項に記載の時系列画像
解析装置の対象物モデル手段において、上記対象物の動
きによる形状変化に関する知識は移動する上記対象物の
各部位のパラメータのことであり、該部位に装着したマ
ーカの動きに基づき算出することを特徴とする時系列画
像解析装置。
(6) In the object model means of the time-series image analysis device described in the item (1), the knowledge about the shape change due to the movement of the object is the parameter of each part of the moving object. The time-series image analysis device is characterized in that the calculation is performed based on the movement of the marker attached to the part.

【0242】この発明に関する実施形態は、第1の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the first embodiment.

【0243】(7) 上記(6)項記載の時系列画像解
析装置の対象物モデル手段において、上記マーカは、上
記対象物の各部位の中心位置に装着することを特徴とす
る時系列画像解析装置。
(7) In the object model means of the time-series image analysis device described in the item (6), the marker is attached to the central position of each part of the object, the time-series image analysis. apparatus.

【0244】この発明に関する実施形態は、第1の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the first embodiment.

【0245】(8) 上記(6)項記載の時系列画像解
析装置の対象物モデル手段において、上記マーカは、上
記対象物の各部位間の接続箇所に装着することを特徴と
する時系列画像解析装置。
(8) In the object model means of the time-series image analysis device according to the item (6), the marker is attached to a connection point between the respective parts of the object, the time-series image. Analyzer.

【0246】この発明に関する実施形態は、第1の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the first embodiment.

【0247】(9) 上記(1)項乃至(8)項のいず
れか1項に記載の時系列画像解析装置の対象物モデル手
段において、上記対象物の形状変化に関連する動作のパ
ラメータを時間軸上に所定の時間間隔で割り付けること
を特徴とする時系列画像解析装置。
(9) In the object model means of the time-series image analysis device described in any one of the above items (1) to (8), the operation parameter related to the shape change of the object is set as a time. A time-series image analysis device characterized by allocating on a shaft at predetermined time intervals.

【0248】この発明に関する実施形態は、第1,3,
4,5,6,7,9,10の実施形態が対応する。
The embodiments relating to the present invention are as follows:
The embodiments of 4, 5, 6, 7, 9, 10 correspond.

【0249】従って、対象となる動作パラメータを、時
間軸上に所定の時間間隔に割り付けることによって、対
象物の動作速度の変化に対応することができる。
Therefore, by assigning the target operation parameter to the predetermined time interval on the time axis, it is possible to deal with the change in the operation speed of the object.

【0250】(10) 上記(1)項乃至(9)項のい
ずれか1項に記載の時系列画像解析装置の対象物モデル
手段において、上記パラメータをテーブルとして保持す
ることを特徴とする時系列画像解析装置。
(10) In the object model means of the time series image analysis device according to any one of the above items (1) to (9), the above parameters are held as a table. Image analysis device.

【0251】この発明に関する実施形態は、第1,3,
4,5,6,7,9,10,11の実施形態が対応す
る。
The embodiments relating to the present invention are:
The embodiments of 4, 5, 6, 7, 9, 10, 11 correspond.

【0252】従って、対象となる動作のパラメータをテ
ーブルとして保存することによって、処理が容易にな
る。
Therefore, the processing becomes easy by storing the parameters of the target operation as a table.

【0253】(11) 上記(1)項乃至(9)項のい
ずれか1項に記載の時系列画像解析装置の対象物モデル
手段において、上記パラメータを補間関数を用いて数式
として保持することを特徴とする時系列画像解析装置。
(11) In the object model means of the time-series image analysis device described in any one of the above items (1) to (9), it is possible to hold the above parameters as mathematical expressions by using an interpolation function. Characteristic time-series image analysis device.

【0254】この発明に関する実施形態は、第1,3,
4,5,6,7,9,10,11の実施形態が対応す
る。
The embodiments relating to the present invention are:
The embodiments of 4, 5, 6, 7, 9, 10, 11 correspond.

【0255】従って、対象となる動作のパラメータを、
各部位ごとに補間関数により数式として保存することに
より、モデルのデータ量を削減することができる。
Therefore, the parameters of the target operation are
The data amount of the model can be reduced by storing each part as an equation using an interpolation function.

【0256】(12) 上記(1)項乃至(11)項の
いずれか1項に記載の時系列画像解析装置の対象物モデ
ル手段において、上記時系列画像における対象物の部位
の動作の周期成分を抽出し、一周期分のパラメータのみ
の格納を行うことを特徴とする時系列画像解析装置。
(12) In the object model means of the time-series image analysis device described in any one of the above items (1) to (11), the periodic component of the motion of the part of the object in the time-series image. And a time series image analysis device which stores only one cycle of parameters.

【0257】従って、動作に周期性がある場合、動作か
ら周期成分を抽出し、一周期分のパラメータのみを格納
することによって、モデルの情報量を削減することがで
きる。
Therefore, when the motion has periodicity, the amount of model information can be reduced by extracting the cyclic component from the motion and storing only the parameters for one period.

【0258】この発明に関する実施形態は、第1,3,
4の実施形態が対応する。
The embodiments relating to the present invention are as follows:
The four embodiments correspond.

【0259】(13) 上記(1)項に記載の時系列画
像解析装置の対象物モデル手段において、さらに、上記
パラメータに関する各部位の存在可能領域を算出する存
在可能領域算出手段を付加したことを特徴とする時系列
画像解析装置。
(13) In the object model means of the time-series image analysis device described in the above item (1), the possible area calculating means for calculating the possible area of each part regarding the above parameters is added. Characteristic time-series image analysis device.

【0260】この発明に関する実施形態は、第1の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the first embodiment.

【0261】従って、対象となる動作の各部位のパラメ
ータを用いて存在可能領域の算出することにより時系列
画像の各部位のパラメータを高速に算出することができ
る。 (14) 上記(13)項記載の時系列画像解析装置の
対象物モデル手段において、 上記存在可能領域算出手
段により算出された存在可能領域の形状を単純な幾何学
的形状を組み合わせた形状として保持することを特徴と
する時系列画像解析装置。
Therefore, the parameter of each part of the time series image can be calculated at high speed by calculating the possible area by using the parameter of each part of the target motion. (14) In the object model means of the time-series image analysis device according to (13), the shape of the possible area calculated by the possible area calculating means is held as a shape obtained by combining simple geometrical shapes. A time-series image analysis device characterized by:

【0262】この発明に関する実施形態は、第1の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the first embodiment.

【0263】従って、算出した存在可能領域を幾何学的
な形状のパラメータの組み合わせとして表現することに
より、モデルの情報量を削減することができる。
Therefore, by expressing the calculated possible existence area as a combination of parameters of the geometrical shape, it is possible to reduce the information amount of the model.

【0264】(15) 上記(13)項記載の時系列画
像解析装置のパラメータ算出手段において、上記存在可
能領域算出手段により出力される存在可能領域に基づい
て、上記時系列画像中の上記対象物の各部位の存在候補
領域の算出を行う候補領域算出手段と、を付加したこと
を特徴とする時系列画像解析装置。
(15) In the parameter calculating means of the time-series image analysis device described in the item (13), the object in the time-series image is based on the possible area output by the possible-area calculating means. And a candidate area calculating means for calculating the existence candidate area of each part of the time series image analysis apparatus.

【0265】この発明に関する実施形態は、第2,8の
実施形態が対応する。
The embodiments relating to the present invention correspond to the second and eighth embodiments.

【0266】従って、上記で算出した存在可能領域と時
系列画像中の対象物のシルエット画像のAND処理を行
い、各部位の候補領域を一括的に算出を行うことによっ
て、処理が高速になり、後処理の負荷を軽減できる。
Therefore, by performing the AND processing of the possible area calculated above and the silhouette image of the object in the time series image, and collectively calculating the candidate areas of each part, the processing becomes faster, The post-processing load can be reduced.

【0267】(16) 上記(15)項記載の時系列画
像解析装置のパラメータ算出手段において、上記候補領
域算出手段により出力される存在可能領域に基づき、上
記対象物の各部位のパラメータ群の算出を行うことを特
徴とする時系列画像解析装置。
(16) In the parameter calculation means of the time-series image analysis device described in the above item (15), the parameter group of each part of the object is calculated based on the possible area output by the candidate area calculation means. A time-series image analysis device for performing.

【0268】この発明に関する実施形態は、第2の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the second embodiment.

【0269】従って、上記で求められた各部位の候補領
域の結合関係を決定し、パラメータの算出を行うことに
よって、後処理の負荷を軽減できる。
Therefore, the load of post-processing can be reduced by determining the connection relation of the candidate regions of the respective parts obtained above and calculating the parameters.

【0270】(17) 上記(16)項記載の時系列画
像解析装置のパラメータ算出手段において、上記パラメ
ータ群の算出を行う際に、上記候補領域算出手段により
算出された候補領域と上記対象物モデル手段に基づく各
部位のサイズより各パラメータの許容範囲を算出するこ
とを特徴とする時系列画像解析装置。
(17) In the parameter calculation means of the time-series image analysis device described in (16) above, when the parameter group is calculated, the candidate area calculated by the candidate area calculation means and the object model are calculated. A time-series image analysis device, wherein an allowable range of each parameter is calculated from the size of each part based on the means.

【0271】この発明に関する実施形態は、第2の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the second embodiment.

【0272】従って、上記で求められた候補領域とモデ
ルのサイズにより算出されたパラメータの許容範囲の算
出を行うことによって、後処理の負荷を軽減できる。
Therefore, the load of post-processing can be reduced by calculating the permissible range of the parameters calculated based on the candidate area obtained above and the size of the model.

【0273】(18) 上記(1)項若しくは(17)
項のいずれか1項に記載の時系列画像解析装置におい
て、上記時系列画像の一画像内でモデルとの対比により
各パラメータの修正を行うパラメータ修正手段を付加し
たことを特徴とする時系列画像解析装置。
(18) Item (1) or (17) above
The time-series image analysis device according to any one of paragraphs, further comprising a parameter correction unit that corrects each parameter by comparing with a model in one image of the time-series image. Analyzer.

【0274】この発明に関する実施形態は、第1の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the first embodiment.

【0275】従って、モデルと時系列画像のパラメータ
の差を算出し、閾値より大きい場合、パラメータを置換
し、マッチング誤差を算出し、増大する場合は、破棄す
ることよって、真値に近いパラメータを算出するため、
最適化処理が高速になる。
Therefore, the difference between the parameters of the model and the time-series image is calculated. If the difference is larger than the threshold value, the parameter is replaced and the matching error is calculated. To calculate
The optimization process becomes faster.

【0276】(19) 上記(15)項乃至(17)項
のいずれか1項に記載の時系列画像解析装置のパラメー
タ算出手段は、上記形状生成手段によって抽出された上
記対象物の移動方向を算出する移動方向算出手段と、上
記対象物の移動方向と上記対象物モデル手段に格納され
ている動きに関する知識の移動方向とが同一か否か判断
する移動方向判断手段と、上記対象物と上記対象物モデ
ル手段に格納されている動きに関する知識の移動方向が
同一でない場合、上記対象物モデル手段に格納されてい
る動きに関するパラメータの修正を行うモデル修正手段
と、をさらに有することを特徴とする時系列画像解析装
置。
(19) The parameter calculation means of the time-series image analysis device described in any one of the above items (15) to (17) indicates the moving direction of the object extracted by the shape generation means. Moving direction calculating means for calculating, moving direction judging means for judging whether or not the moving direction of the object is the same as the moving direction of the knowledge stored in the object model means, the object and the above Model correction means for correcting the parameters relating to the movement stored in the object model means when the movement directions of the knowledge about the movement stored in the object model means are not the same. Time series image analysis device.

【0277】この発明に関する実施形態は、第2の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the second embodiment.

【0278】従って、1つの装置で双方向に移動する対
象物の解析も行うことができる。
Therefore, it is possible to analyze an object that moves in both directions with one device.

【0279】(20) 上記(1)項記載の時系列画像
解析装置の整合手段は、上記パラメータ手段から算出さ
れた対応パラメータの全体と対象物モデル手段のパラメ
ータの全体及び、形状生成手段で抽出された対象物のシ
ルエット画像を照合し、誤差を最小化させることを特徴
とする時系列画像解析装置。
(20) The matching means of the time-series image analysis device described in the above item (1) extracts all the corresponding parameters calculated from the parameter means, all the parameters of the object model means, and the shape generation means. A time-series image analysis device characterized by collating the silhouette images of the target object thus obtained and minimizing an error.

【0280】この発明に関する実施形態は、第2の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the second embodiment.

【0281】(21) 上記(1)項記載の時系列画像
解析装置において、上記整合手段は、さらに、上記パラ
メータ算出手段によって算出された上記対象物のパラメ
ータから対象物を表す画像として構成される画像と上記
形状生成手段によって抽出された対象物とが整合するよ
うに上記対象物のパラメータを補正することを特徴とす
る時系列画像解析装置。
(21) In the time series image analysis device described in the item (1), the matching means is further configured as an image representing the object from the parameters of the object calculated by the parameter calculating means. A time-series image analysis device, which corrects the parameters of the object so that the image and the object extracted by the shape generation unit match.

【0282】この発明に関する実施形態は、第1,5,
7の実施形態が対応する。
The embodiments relating to the present invention are as follows:
The seven embodiments correspond.

【0283】従って、時系列画像中の対象物の各部位の
パラメータをモデルのパラメータ及び、時系列画像中の
対象物に整合させることによりさらに高精度の解析が可
能となる。
Therefore, by matching the parameters of each part of the object in the time-series image with the parameters of the model and the object in the time-series image, it is possible to perform a more accurate analysis.

【0284】(22) 上記(1)項又は(21)項の
いずれか1項に記載の時系列画像解析装置の整合手段
は、前記時刻の同期を取るための同期手段を有し、上記
同期手段は、上記対象物モデル手段にパラメータとして
格納されている対象物の各部位の所定の動きの状態変化
を時刻として検出する動き検出手段と、上記動き検出手
段により検出された時刻の上記対象物モデル手段に格納
されている対象物と上記パラメータ算出手段により算出
されたパラメータから同一の動きの状態である時刻の算
出を行う時刻算出手段と、により構成されることを特徴
とする時系列画像解析装置。
(22) The matching means of the time series image analysis device according to any one of the above items (1) and (21) has a synchronizing means for synchronizing the times, and A means is a motion detecting means for detecting a time change of a predetermined motion of each part of the object stored as a parameter in the object model means, and the object at the time detected by the motion detecting means. Time-series image analysis, characterized in that it comprises an object stored in the model means and a time calculation means for calculating the time of the same motion state from the parameters calculated by the parameter calculation means. apparatus.

【0285】この発明に関する実施形態は、第1,3,
5,9,10,11の実施形態が対応する。
The embodiments relating to the present invention are:
The embodiments of 5, 9, 10, and 11 correspond.

【0286】従って、モデルの所定の動きの時刻のパラ
メータを用いて楕円画像の生成を行い、時系列画像中の
対象物のシルエット画像群とのマッチングを行い、ま
た、マッチング誤差が最小となるシルエット画像の時刻
の算出を行うことによって、全画像との比較を省略でき
るため、高速処理を行うことができる。
Therefore, an ellipse image is generated using the parameters of the time of predetermined movement of the model, matching is performed with the silhouette image group of the object in the time series images, and the silhouette with the minimum matching error is generated. By calculating the time of the image, comparison with all the images can be omitted, and thus high-speed processing can be performed.

【0287】(23) 上記(12)項記載の時系列画
像解析装置の整合手段において、上記時系列画像におけ
る対象物の部位の動作周期と、前回に設定された上記対
象物モデル手段の対象物の部位の動作周期の比に基づい
て、上記対象物モデル手段の周期の校正を行う周期校正
手段を具備することを特徴とする時系列画像解析装置。
(23) In the matching means of the time series image analysis device according to the above (12), the operation cycle of the part of the object in the time series image and the object of the previously set object model means. A time-series image analysis device comprising a period calibration means for calibrating the period of the object model means based on the ratio of the operation cycles of the parts.

【0288】この発明に関する実施形態は、第1,3,
5,9,10,11の実施形態が対応する。
The embodiments relating to the present invention are as follows:
The embodiments of 5, 9, 10, and 11 correspond.

【0289】従って、各時系列画像の動作周期の算出を
行う。算出した一周期あたりの時間とモデルの一周期あ
たりの時間との比率を算出し、この比率を用いてモデル
の周期の校正を行うことによって、対象物の動作速度が
変化した場合にも柔軟に対応することができる。
Therefore, the operation cycle of each time series image is calculated. By calculating the ratio of the calculated time per cycle to the model time per cycle, and by using this ratio to calibrate the model cycle, you can be flexible even when the operating speed of the object changes. Can respond.

【0290】(24) 時系列画像中の所定の対象物を
解析する動画像解析方法において、上記対象物の形状及
び動きによる形状変化の知識を、上記対象物を構成する
部位のそれぞれについてパラメータ化することによって
モデル化し、上記モデル化されたパラメータのうち、動
きに関する知識を時間の関数として格納し、上記時系列
画像中の所定の時間範囲内の複数の画像から上記対象物
を抽出して、上記モデル化されたパラメータに対応する
パラメータを算出し、上記モデル化されたパラメータと
上記対象物から算出されたパラメータとの間の同期をと
り、同期した上記対象物からのパラメータによる形状
と、上記モデル化されたパラメータによる形状との大き
さが合うように上記上記モデル化されたパラメータを補
正し、上記対象物に基づいて算出したパラメータを上記
関数から求められたパラメータに整合することを特徴と
する時系列画像解析方法。
(24) In a moving image analysis method for analyzing a predetermined object in a time-series image, the knowledge of the shape of the object and its shape change due to movement is parameterized for each of the parts constituting the object. By modeling by, by storing the knowledge of the movement as a function of time among the modeled parameters, to extract the object from a plurality of images within a predetermined time range in the time-series image, A parameter corresponding to the modeled parameter is calculated, the modeled parameter and the parameter calculated from the object are synchronized, and the shape by the parameter from the synchronized object and the The above modeled parameters are corrected so that the size of the modeled parameters matches the shape, and the A time-series image analysis method characterized in that the parameter calculated based on the above is matched with the parameter calculated from the above function.

【0291】この発明に関する実施形態は、第1,2の
実施形態が対応する。
The embodiments relating to the present invention correspond to the first and second embodiments.

【0292】従って、時系列画像中の対象物を構成する
各部位のパラメータを算出し、抽出された対象物に基づ
いて、モデルの大きさの補正が行われ、対象物とモデル
の動きの同期がとられた後、対象物から算出されたパラ
メータとモデルのパラメータのそれぞれの大きさが所定
の関係を満たすように対象物から算出されたパラメータ
が補正される。
Therefore, the parameter of each part constituting the object in the time-series image is calculated, the size of the model is corrected based on the extracted object, and the movement of the object and the model are synchronized. After this is taken, the parameters calculated from the object are corrected so that the magnitudes of the parameters calculated from the object and the parameters of the model satisfy a predetermined relationship.

【0293】(25) 時系列画像中の所定の対象物を
解析する動画像解析方法において、上記対象物の形状お
よび動作の知識を所定部位に関するパラメータとしてモ
デル化し、上記モデルを数式化して格納し、上記対象物
に関し上記モデルに対応する概略的なパラメータを算出
し、上記対象物と上記モデル間の時刻の同期をとり、上
記対象物と上記モデル間のサイズの校正をし、上記対象
物パラメータ全体を上記モデルのパラメータ全体及び上
記時系列画像中の所定の対象物に整合する、ことを特徴
とする時系列画像解析方法。
(25) In a moving image analysis method for analyzing a predetermined object in a time-series image, knowledge of the shape and motion of the object is modeled as a parameter relating to a predetermined part, and the model is mathematically stored and stored. , Calculating a rough parameter corresponding to the model for the object, synchronizing the time between the object and the model, calibrating the size between the object and the model, the object parameter A time-series image analysis method, wherein the whole is matched with all the parameters of the model and a predetermined object in the time-series image.

【0294】この発明に関する実施形態は、第1,2の
実施形態が対応する。
The embodiments relating to the present invention correspond to the first and second embodiments.

【0295】従って、時系列画像中の対象物の各部位の
パラメータを概略的に算出し、対象物とモデルのサイズ
の校正と同期時刻の算出を行い、さらに、時系列画像中
の対象物の各部位のパラメータ群、モデルのパラメータ
群、時系列画像中の対象物のシルエット画像の3者を整
合する評価関数を定義し、この評価関数を最小化するこ
とを行うことによって、対象物の動作を高精度に解析す
ることができる。
Therefore, the parameters of each part of the object in the time-series image are roughly calculated, the size of the object and the model are calibrated, and the synchronization time is calculated. By defining an evaluation function that matches the parameter group of each part, the model parameter group, and the silhouette image of the object in the time-series image, and minimizing this evaluation function, the behavior of the object Can be analyzed with high accuracy.

【0296】(26) 上記(22)項記載の上記同期
手段は、上記形状生成手段によって抽出された対象物と
上記対象物モデル手段に格納されている対象物の面積が
最小または最大となる時刻を算出することを特徴とする
時系列画像解析装置。
(26) The synchronizing means described in the above (22) is the time when the area of the object extracted by the shape generating means and the area of the object stored in the object model means becomes minimum or maximum. A time-series image analysis device for calculating.

【0297】この発明に関する実施形態は、第1の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the first embodiment.

【0298】(27) 上記(1)項に記載の時系列画
像解析装置の整合手段は、上記形状生成手段のシルエッ
ト画像を入力すると対象物の各部位のパラメータを出力
するニューラルネットワークを付加することを特徴とす
る時系列画像解析装置。
(27) The matching means of the time-series image analysis device described in the above item (1) is added with a neural network which outputs parameters of each part of the object when the silhouette image of the shape generation means is input. A time-series image analysis device.

【0299】この発明に関する実施形態は、第4の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the fourth embodiment.

【0300】(28) 上記(1)項及び(9)項乃至
(12)項のいずれか1項に記載の時系列画像解析装置
の対象物モデル手段は、さらに上記整合手段により算出
されたパラメータと、上記対象物モデル手段のパラメー
タとの差から算出される補正パラメータに基づき、該対
象物モデル手段に記憶しているパラメータを更新するパ
ラメータ更新手段を有することを特徴とする時系列画像
解析装置。
(28) The object model means of the time-series image analysis device according to any one of the above items (1) and (9) to (12) further includes the parameters calculated by the matching means. And a parameter updating means for updating the parameter stored in the object model means based on the correction parameter calculated from the difference between the parameter of the object model means and the parameter of the object model means. .

【0301】この発明に関する実施形態は、第5の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the fifth embodiment.

【0302】従って、モデルの動きに関するパラメータ
を処理の進行に伴い、適用的に学習させることで、処理
の高精度化と高速化を行うことができる。
Therefore, it is possible to improve the accuracy and speed of the processing by adaptively learning the parameters related to the movement of the model as the processing progresses.

【0303】(29) 上記(1)項及び(9)項乃至
(12)項及び(28)項のいずれか1項に記載の時系
列画像解析装置の対象物モデル手段は、上記対象物を構
成する主となる任意の部位のパラメータを上位階層と
し、これらの部位と結合する部位のパラメータを下位階
層として 、各部位の動きに関するモデルを階層的に保
存することを特徴とする時系列画像解析装置。
(29) The object model means of the time series image analysis device according to any one of the above items (1) and (9) to (12) and (28), Time-series image analysis characterized by hierarchically storing models related to movement of each part, with parameters of arbitrary main parts constituting the upper layer and parameters of parts connecting these parts as the lower layer apparatus.

【0304】この発明に関する実施形態は、第6の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the sixth embodiment.

【0305】(30) 上記(29)項記載の時系列画
像解析装置の対象物モデル手段は、上記整合手段による
整合の際に、整合する度合いが所定の閾値を越えた前記
各部位のパラメータのみ新たに変更することを特徴とす
る時系列画像解析装置。
(30) The object model means of the time-series image analysis device according to the above (29) only includes the parameters of the respective portions whose degree of matching exceeds a predetermined threshold when the matching means performs matching. A time-series image analysis device that is newly changed.

【0306】この発明に関する実施形態は、第6の実施
形態が対応する。
The sixth embodiment corresponds to the embodiment of the present invention.

【0307】従って、必要な部位のみモデルを切り換え
ることが可能となり、より多くの状況に対応可能な処理
を行うことができる。
Therefore, it becomes possible to switch the models only for the necessary parts, and it is possible to perform processing that can handle more situations.

【0308】(31) 上記(1)項及び(9)項乃至
(12)項及び(28)項のいずれか1項に記載の時系
列画像解析装置の対象物モデル手段において、上記整合
手段に使用するために上記対象物モデル手段から抽出さ
れるパラメータは、対象物の部位の複数の動きのパラメ
ータに対して、誤差が最小となるように選択されたパラ
メータであることを特徴とする時系列画像解析装置。
(31) In the object model means of the time series image analysis device according to any one of the above items (1) and (9) to (12) and (28), the matching means is The time series characterized in that the parameters extracted from the object model means for use are parameters selected to have a minimum error with respect to a plurality of movement parameters of the object part. Image analysis device.

【0309】この発明に関する実施形態は、第7の実施
形態が対応する。
The embodiment relating to the present invention corresponds to the seventh embodiment.

【0310】従って、対象物の動作が予め分かっていな
い動作に関しても自動的にモデルを選択することができ
る。
Therefore, it is possible to automatically select a model even for a motion in which the motion of the object is unknown.

【0311】(32) 上記(16)項及び(17)項
のいずれか1項に記載の時系列画像解析装置のパラメー
タ算出手段は、上記候補領域算出手段により出力される
各部位の存在可能領域において、該存在可能領域の面積
が所定の閾値以下の部位から優先的にパラメータ群の算
出を行い、他の部位の存在可能領域を限定することを特
徴とする時系列画像解析装置。この発明に関する実施形
態は、第8の実施形態が対応する。
(32) The parameter calculation means of the time-series image analysis device described in any one of the above items (16) and (17) is a possible area of each part output by the candidate area calculation means. 2. In the time series image analysis apparatus, the parameter group is preferentially calculated from a site in which the area of the possible area is equal to or smaller than a predetermined threshold to limit the possible area of the other area. The eighth embodiment corresponds to the embodiment of the present invention.

【0312】従って、部位毎に処理の優先順位を付加す
ることで、処理の高精度化と高速化を行うことができ
る。
Therefore, by adding the processing priority to each part, it is possible to improve the accuracy and speed of the processing.

【0313】(33) 上記(1)項及び(20)項の
いずれか1項に記載の時系列画像解析装置の整合手段
は、各部位の次時刻のパラメータを過去の各部位のパラ
メータから予測する動きベクトル予測手段を、さらに有
することを特徴とする時系列画像解析装置。
(33) The matching means of the time-series image analysis device described in any one of the above items (1) and (20) predicts the parameter of the next time of each part from the parameter of each past part. A time-series image analysis device further comprising motion vector predicting means for

【0314】この発明に関する実施形態は、第9の実施
形態が対応する。
The ninth embodiment corresponds to the embodiment relating to the present invention.

【0315】従って、モデルのパラメータに比べ過去の
画像からパラメータを算出しているため、時間的な連続
性が維持され、1枚の画像での最適化においても良好な
パラメータを得ることができる。
Therefore, since the parameters are calculated from the past images as compared with the parameters of the model, the temporal continuity is maintained and good parameters can be obtained even in the optimization with one image.

【0316】(34) 上記(1)項及び(20)項及
び(33)項のいずれか1項に記載の時系列画像解析装
置の整合手段は、各動きにおける各部位のパラメータの
調整度を算出する調節度算出手段と、上記調節度算出手
段で算出された調整度に基づき、各部位に与える微小変
化を更新する最適化処理手段とを有することを特徴とす
る時系列画像解析装置。
(34) The matching means of the time-series image analysis device described in any one of the above items (1), (20), and (33) adjusts the adjustment degree of the parameter of each part in each movement. A time-series image analysis device comprising: an adjustment degree calculating means for calculating; and an optimization processing means for updating a minute change given to each part based on the adjustment degree calculated by the adjustment degree calculating means.

【0317】この発明に関する実施形態は、第10の実
施形態が対応する。
The tenth embodiment corresponds to the embodiment of the present invention.

【0318】(35) 上記(34)項記載の時系列画
像解析装置の調節度算出手段は、上記対象物モデル手段
に格納されているパラメータと時系列画像のパラメータ
の差を算出することを特徴とする時系列画像解析装置。
(35) The adjustment degree calculating means of the time series image analysis device according to the above (34) is characterized by calculating the difference between the parameter stored in the object model means and the parameter of the time series image. And time series image analysis device.

【0319】従って、各部位毎に微小変化の与え方を変
化させることで、高精度かつ高速な処理の実現が可能と
なる。
Therefore, it is possible to realize high-accuracy and high-speed processing by changing the method of giving a minute change for each part.

【0320】この発明に関する実施形態は、第11の実
施形態が対応する。
The eleventh embodiment corresponds to the embodiment of the present invention.

【0321】(36) 上記(1)項及び(20)項及
び(33)項のいずれか1項に記載の時系列画像解析装
置の整合手段は、上記パラメータ修正手段により行われ
た修正情報に基づき、整合手段における各部位のパラメ
ータに関して微小変化を与える領域及び空間を算出する
確信度算出手段をさらに、有することを特徴とする時系
列画像解析装置。
(36) The matching means of the time-series image analysis device described in any one of the above items (1), (20) and (33) uses the correction information made by the parameter correction means. A time-series image analysis device further comprising certainty factor calculation means for calculating a region and a space in which the parameter of each part in the matching means is slightly changed based on the certainty factor calculation means.

【0322】この発明に関する実施形態は、第11の実
施形態が対応する。
The eleventh embodiment corresponds to the embodiment of the present invention.

【0323】従って、各部位毎に微小変化の与える範囲
を限定させることで、高精度かつ高速な処理の実現が可
能となる。
Therefore, it is possible to realize high-accuracy and high-speed processing by limiting the range in which a minute change is given to each part.

【0324】[0324]

【発明の効果】以上詳述したように本発明によれば、対
象物の形状と動作に関する知識を利用することによっ
て、従来遮蔽などの影響で解析不可能であった部分に関
する対象物の動きも高精度に解析を行うことができる時
系列画像解析装置及びその解析方法を提供することがで
きる。
As described above in detail, according to the present invention, by utilizing the knowledge about the shape and the movement of the object, the movement of the object with respect to the part which cannot be analyzed due to the influence of the shielding can be performed. It is possible to provide a time-series image analysis device and an analysis method thereof that can perform analysis with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による第1実施形態としての時系列画像
解析装置の概略的な全体の構成例を示す図である。
FIG. 1 is a diagram illustrating a schematic overall configuration example of a time-series image analysis device according to a first embodiment of the present invention.

【図2】図1に示した対象物モデル部に格納されている
モデル形状を説明するための図である。
FIG. 2 is a diagram for explaining a model shape stored in an object model unit shown in FIG.

【図3】対象物モデル部に記憶されるモデル形状が存在
する存在可能領域を説明するための図である。
FIG. 3 is a diagram for explaining a possible area in which a model shape stored in an object model unit exists.

【図4】図1に示した整合部の具体的な構成例を示す図
である。
FIG. 4 is a diagram showing a specific configuration example of a matching unit shown in FIG.

【図5】図4に示した同期部の処理を説明するための概
念を示す図である。
5 is a diagram showing a concept for explaining a process of a synchronization unit shown in FIG.

【図6】図4に示した周期校正部の処理を説明するため
の概念を示す図である。
FIG. 6 is a diagram showing a concept for explaining a process of a period calibration unit shown in FIG.

【図7】図4に示したパラメータ修正部の処理を説明す
るための概念を示す図である。
7 is a diagram showing a concept for explaining a process of a parameter correction unit shown in FIG.

【図8】図4に示した最適化処理部の処理を説明するた
めの概念を示す図である。
8 is a diagram showing a concept for explaining a process of an optimization processing unit shown in FIG.

【図9】第1実施形態において、処理画像と解析結果の
関係を示す図である。
FIG. 9 is a diagram showing a relationship between a processed image and an analysis result in the first embodiment.

【図10】第2実施形態におけるパラメータ算出部の具
体的な構成例を示す図である。
FIG. 10 is a diagram showing a specific configuration example of a parameter calculation unit in the second embodiment.

【図11】時系列画像中の対象物の各部位の存在候補領
域の算出における概念を示す図である。
FIG. 11 is a diagram showing a concept in calculating existence candidate regions of respective parts of a target object in a time-series image.

【図12】結合関係にある候補領域群の位置や傾斜角お
よび許容範囲の算出における概念を示す図である。
FIG. 12 is a diagram showing a concept in calculating a position, a tilt angle, and an allowable range of a candidate area group having a connection relationship.

【図13】マーカ装着と数値データ算出法の概念図であ
る。
FIG. 13 is a conceptual diagram of a marker attachment and a numerical data calculation method.

【図14】数値データのテーブル格納の一例を示す図で
ある。
FIG. 14 is a diagram showing an example of table storage of numerical data.

【図15】対象物モデル部に格納されている各数値デー
タを各部位ごとに補間関数により数式化して格納する概
念を示す図である。
FIG. 15 is a diagram showing a concept of numerically storing numerical data stored in an object model part for each part by formulating and storing the numerical data.

【図16】存在可能領域のパラメータ算出を説明するた
めの概念を示す図である。
FIG. 16 is a diagram showing a concept for explaining a parameter calculation of a possible area.

【図17】同期処理を説明するためのフローチャートで
ある。
FIG. 17 is a flowchart for explaining synchronization processing.

【図18】モデルがclose状態の時刻算出方法の概
念を示す図である。
FIG. 18 is a diagram showing the concept of a time calculation method when the model is in the close state.

【図19】周期校正部を説明するためのフローチャート
である。
FIG. 19 is a flowchart for explaining a period calibration unit.

【図20】周期校正部の処理を説明するための概念を示
す図である。
FIG. 20 is a diagram showing a concept for explaining a process of a period calibration unit.

【図21】パラメータの修正について説明するためのフ
ローチャートである。
FIG. 21 is a flowchart for explaining correction of parameters.

【図22】最適化処理について説明するためのフローチ
ャートである。
FIG. 22 is a flowchart illustrating an optimization process.

【図23】各部位の分離防止に関する概念を示す図であ
る。
FIG. 23 is a diagram showing a concept related to prevention of separation of each part.

【図24】パラメータの算出について説明するためのフ
ローチャートである。
FIG. 24 is a flowchart for explaining calculation of parameters.

【図25】第3実施形態としての時系列画像解析装置の
概略的な全体の構成例を示す図である。
FIG. 25 is a diagram showing a schematic overall configuration example of a time-series image analysis device as a third embodiment.

【図26】第3実施形態における整合部の構成を示す図
である。
FIG. 26 is a diagram showing a configuration of a matching unit in the third embodiment.

【図27】第4実施形態としての時系列画像解析装置に
おける整合部の構成例を示す図である。
FIG. 27 is a diagram showing a configuration example of a matching unit in the time-series image analysis device as the fourth embodiment.

【図28】階層型ニューラルネットワークを用いた最適
化処理部の概略的な構成を示す図である。
FIG. 28 is a diagram showing a schematic configuration of an optimization processing unit using a hierarchical neural network.

【図29】第5実施形態としての時系列画像解析装置の
概略的な全体の構成例を示す図である。
FIG. 29 is a diagram showing a schematic overall configuration example of a time-series image analysis device as a fifth embodiment.

【図30】モデルパラメータの更新に関する概念を説明
するための図である。
FIG. 30 is a diagram for explaining the concept of updating model parameters.

【図31】対象物モデル部の構成例を示す図である。FIG. 31 is a diagram showing a configuration example of an object model unit.

【図32】第5実施形態における整合部の構成を示す図
である。
FIG. 32 is a diagram showing a configuration of a matching unit in the fifth embodiment.

【図33】第6実施形態としての時系列画像解析装置に
おける対象物モデル部の構成を示す図である。
FIG. 33 is a diagram showing a configuration of an object model unit in the time-series image analysis device as the sixth embodiment.

【図34】人間を例とした各部位のツリー構造例を示す
図である。
[Fig. 34] Fig. 34 is a diagram illustrating an example of a tree structure of each part with a human being as an example.

【図35】第7実施形態としての時系列画像解析装置の
概略的な全体の構成例を示す図である。
FIG. 35 is a diagram showing a schematic overall configuration example of a time-series image analysis device as a seventh embodiment.

【図36】第7実施形態における解析部の構成を示す図
である。
FIG. 36 is a diagram showing a configuration of an analysis unit in the seventh embodiment.

【図37】複数モデルから時系列画像中の対象物に最適
なモデルの選択法に関する概念を示す図である。
[Fig. 37] Fig. 37 is a diagram illustrating a concept regarding a method of selecting an optimal model from a plurality of models for an object in a time-series image.

【図38】第8実施形態としての時系列画像解析装置の
パラメータ算出部の構成例を示す図である。
FIG. 38 is a diagram illustrating a configuration example of a parameter calculation unit of the time-series image analysis device according to the eighth embodiment.

【図39】処理の優先順位を導入した時系列画像中の対
象物の各部位の存在候補領域の算出における概念を示す
図である。
[Fig. 39] Fig. 39 is a diagram illustrating the concept of calculating the existence candidate region of each part of the target object in the time-series image in which the processing priority order is introduced.

【図40】限定された候補領域2の算出に関する概念を
示す図である。
FIG. 40 is a diagram showing a concept related to calculation of a limited candidate area 2.

【図41】第9実施形態としての時系列画像解析装置に
おける整合部の構成を示す図である。
FIG. 41 is a diagram showing a configuration of a matching unit in the time-series image analysis device as the ninth embodiment.

【図42】動きベクトル算出の概念を示す図である。FIG. 42 is a diagram showing the concept of motion vector calculation.

【図43】予測を利用した最適化処理の概念を示す図で
ある。
FIG. 43 is a diagram showing the concept of optimization processing using prediction.

【図44】第10実施形態としての時系列画像解析装置
における整合部の構成を示す図である。
FIG. 44 is a diagram showing a configuration of a matching unit in the time-series image analysis device as the tenth embodiment.

【図45】調整度算出の概念を示す図である。FIG. 45 is a diagram showing the concept of adjustment degree calculation.

【図46】第11実施形態としての時系列画像解析装置
における整合部の構成を示す図である。
FIG. 46 is a diagram showing a configuration of a matching unit in the time-series image analysis device as the eleventh embodiment.

【図47】パラメータ修正部で得られる情報に関する概
念を示す図である。
FIG. 47 is a diagram showing a concept regarding information obtained by a parameter correction unit.

【図48】確信度を利用した微小変化の与え方の概念を
示す図である。
[Fig. 48] Fig. 48 is a diagram illustrating the concept of how to make a minute change using confidence.

【図49】モデルの反転に関する概念を示す図である。FIG. 49 is a diagram showing a concept related to model inversion.

【符号の説明】[Explanation of symbols]

1…入力部、2…A/D部、3…バッファメモリ部、4
…補助入出力部、5…形状生成部、6…対象物モデル
部、7…パラメータ算出部、8…整合部、9…D/A
部、10…出力部、11…制御部。
1 ... Input unit, 2 ... A / D unit, 3 ... Buffer memory unit, 4
... auxiliary input / output unit, 5 ... shape generation unit, 6 ... object model unit, 7 ... parameter calculation unit, 8 ... matching unit, 9 ... D / A
Section, 10 ... output section, 11 ... control section.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 時系列画像中の所定の対象物を解析する
時系列画像解析装置において、 上記時系列画像中の所定の時間範囲内の複数の画像から
対象物を抽出する形状生成手段と、 上記対象物の形状及び動きによる形状変化に関する知識
を、上記対象物を構成する部位のそれぞれについてパラ
メータとして格納する対象物モデル手段と、 上記形状生成手段によって抽出された上記対象物から上
記対象物モデル手段に格納されたパラメータと対応した
部位の位置や傾斜角の種類及び時刻のパラメータを算出
するパラメータ算出手段と、 上記複数の画像のそれぞれに対応する、上記パラメータ
算出手段により算出された上記対象物のパラメータを構
成要素とするパラメータの集合を、上記対象物のパラメ
ータに対応する上記モデル手段に格納されたパラメータ
のそれぞれを構成要素とするパラメータの集合に整合さ
せる整合手段と、を有することを特徴とする時系列画像
解析装置。
1. A time-series image analysis device for analyzing a predetermined object in a time-series image, and shape generation means for extracting the object from a plurality of images within a predetermined time range in the time-series image, Object model means for storing knowledge about the shape and shape change due to movement of the object as a parameter for each part constituting the object, and the object model from the object extracted by the shape generating means. Parameter calculation means for calculating parameters of position and inclination angle type and time corresponding to parameters stored in the means, and the object calculated by the parameter calculation means corresponding to each of the plurality of images A set of parameters whose constituent elements are stored in the model means corresponding to the parameters of the object. Time-series image analyzer, characterized in that it comprises a matching means for matching a set of parameters that the components respectively, a parameter.
【請求項2】 上記整合手段は、さらに、上記パラメー
タ算出手段によって算出された上記対象物のパラメータ
から対象物を表す画像として構成される画像と上記形状
生成手段によって抽出された対象物とが整合するように
上記対象物のパラメータを補正することを特徴とする請
求項1記載の時系列画像解析装置。
2. The matching means further matches an image configured as an image representing the object from the parameters of the object calculated by the parameter calculating means with the object extracted by the shape generating means. The time-series image analysis device according to claim 1, wherein the parameters of the object are corrected so as to do so.
【請求項3】 時系列画像中の所定の対象物を解析する
動画像解析方法において、 上記対象物の形状及び動きによる形状変化の知識を、上
記対象物を構成する部位のそれぞれについてパラメータ
化することによってモデル化し、 上記モデル化されたパラメータのうち動きに関する知識
を時間の関数として格納し、 上記時系列画像中の所定の時間範囲内の複数の画像から
上記対象物を抽出して、上記モデル化されたパラメータ
に対応するパラメータを算出し、 上記モデル化されたパラメータと上記対象物から算出さ
れたパラメータとの間の同期をとり、 同期した上記対象物からのパラメータによる形状と、上
記モデル化されたパラメータによる形状との大きさが合
うように上記モデル化されたパラメータを補正し、 上記対象物に基づいて算出したパラメータを上記関数か
ら求められたパラメータに整合することを特徴とする時
系列画像解析方法。
3. A moving image analysis method for analyzing a predetermined object in a time-series image, wherein the knowledge of the shape and shape change of the object is parameterized for each part constituting the object. Of the modeled parameters is stored as a function of time, and the object is extracted from a plurality of images within a predetermined time range in the time-series image to obtain the model. The parameter corresponding to the parameterized parameter is calculated, and the modeled parameter and the parameter calculated from the object are synchronized, and the shape by the parameter from the synchronized object and the modeling Correct the above modeled parameters so that the size of the shape is matched with the shape of the calculated parameters, and calculate based on the object. A time-series image analysis method, characterized in that the obtained parameters are matched with the parameters obtained from the above function.
JP27263595A 1994-12-06 1995-10-20 Time-series image analysis apparatus and analysis method thereof Expired - Fee Related JP3780017B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27263595A JP3780017B2 (en) 1994-12-06 1995-10-20 Time-series image analysis apparatus and analysis method thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP30195594 1994-12-06
JP6-301955 1994-12-06
JP27263595A JP3780017B2 (en) 1994-12-06 1995-10-20 Time-series image analysis apparatus and analysis method thereof

Publications (2)

Publication Number Publication Date
JPH08214289A true JPH08214289A (en) 1996-08-20
JP3780017B2 JP3780017B2 (en) 2006-05-31

Family

ID=26550300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27263595A Expired - Fee Related JP3780017B2 (en) 1994-12-06 1995-10-20 Time-series image analysis apparatus and analysis method thereof

Country Status (1)

Country Link
JP (1) JP3780017B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005050565A1 (en) * 2003-11-20 2005-06-02 Matsushita Electric Industrial Co., Ltd. Moving object detection device and moving object detection method
WO2009112790A1 (en) 2008-03-14 2009-09-17 Panasonic Corporation Image processing method and image processing apparatus
WO2010079556A1 (en) 2009-01-09 2010-07-15 パナソニック株式会社 Moving object detection method and moving object detection apparatus
WO2011013299A1 (en) 2009-07-31 2011-02-03 パナソニック株式会社 Mobile body detection apparatus and mobile body detection method
WO2011013281A1 (en) 2009-07-29 2011-02-03 パナソニック株式会社 Mobile body detection method and mobile body detection apparatus
WO2011080900A1 (en) 2009-12-28 2011-07-07 パナソニック株式会社 Moving object detection device and moving object detection method
JP2012043155A (en) * 2010-08-18 2012-03-01 Canon Inc Object detector and object detection method
WO2012077287A1 (en) * 2010-12-09 2012-06-14 パナソニック株式会社 Orientation state estimation device and orientation state estimation method
CN102741884A (en) * 2010-07-27 2012-10-17 松下电器产业株式会社 Mobile body detection device and mobile body detection method
US8340357B2 (en) 2008-10-27 2012-12-25 Panasonic Corporation Moving object detection method and moving object detection apparatus
US8401243B2 (en) 2009-12-28 2013-03-19 Panasonic Corporation Articulated object region detection apparatus and method of the same
CN103003846A (en) * 2011-01-26 2013-03-27 松下电器产业株式会社 Articulation region display device, articulation region detection device, articulation region relatedness computation device, articulation shape region relatedness computation device, and articulation region display method
WO2016017477A1 (en) * 2014-08-01 2016-02-04 株式会社デンソー Image-processing device
JP2019087126A (en) * 2017-11-09 2019-06-06 日本電信電話株式会社 Image processing device, image processing method and image processing program
CN111033560A (en) * 2017-08-07 2020-04-17 富士通株式会社 Information processing device, model data creation program, and model data creation method
US10796186B2 (en) 2017-07-03 2020-10-06 Fujitsu Limited Part recognition method, information processing apparatus, and imaging control system

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7702019B2 (en) 2003-11-20 2010-04-20 Panasonic Corporation Moving object detection device and moving object detection method
WO2005050565A1 (en) * 2003-11-20 2005-06-02 Matsushita Electric Industrial Co., Ltd. Moving object detection device and moving object detection method
WO2009112790A1 (en) 2008-03-14 2009-09-17 Panasonic Corporation Image processing method and image processing apparatus
US8437549B2 (en) 2008-03-14 2013-05-07 Panasonic Corporation Image processing method and image processing apparatus
EP2418622A2 (en) 2008-03-14 2012-02-15 Panasonic Corporation Image processing method and image processing apparatus
US8340357B2 (en) 2008-10-27 2012-12-25 Panasonic Corporation Moving object detection method and moving object detection apparatus
US8213681B2 (en) 2009-01-09 2012-07-03 Panasonic Corporation Moving object detection method and moving object detection apparatus
WO2010079556A1 (en) 2009-01-09 2010-07-15 パナソニック株式会社 Moving object detection method and moving object detection apparatus
US8363902B2 (en) 2009-07-29 2013-01-29 Panasonic Corporation Moving object detection method and moving object detection apparatus
WO2011013281A1 (en) 2009-07-29 2011-02-03 パナソニック株式会社 Mobile body detection method and mobile body detection apparatus
US8300892B2 (en) 2009-07-31 2012-10-30 Panasonic Corporation Moving object detection apparatus and moving object detection method
WO2011013299A1 (en) 2009-07-31 2011-02-03 パナソニック株式会社 Mobile body detection apparatus and mobile body detection method
US8582822B2 (en) 2009-12-28 2013-11-12 Panasonic Corporation Moving object detection apparatus and moving object detection method
WO2011080900A1 (en) 2009-12-28 2011-07-07 パナソニック株式会社 Moving object detection device and moving object detection method
US8401243B2 (en) 2009-12-28 2013-03-19 Panasonic Corporation Articulated object region detection apparatus and method of the same
CN102741884A (en) * 2010-07-27 2012-10-17 松下电器产业株式会社 Mobile body detection device and mobile body detection method
US8599252B2 (en) 2010-07-27 2013-12-03 Panasonic Corporation Moving object detection apparatus and moving object detection method
JP2012043155A (en) * 2010-08-18 2012-03-01 Canon Inc Object detector and object detection method
US20130301882A1 (en) * 2010-12-09 2013-11-14 Panasonic Corporation Orientation state estimation device and orientation state estimation method
WO2012077287A1 (en) * 2010-12-09 2012-06-14 パナソニック株式会社 Orientation state estimation device and orientation state estimation method
JP5837508B2 (en) * 2010-12-09 2015-12-24 パナソニック株式会社 Posture state estimation apparatus and posture state estimation method
US9262674B2 (en) 2010-12-09 2016-02-16 Panasonic Corporation Orientation state estimation device and orientation state estimation method
CN103003846A (en) * 2011-01-26 2013-03-27 松下电器产业株式会社 Articulation region display device, articulation region detection device, articulation region relatedness computation device, articulation shape region relatedness computation device, and articulation region display method
US8929599B2 (en) 2011-01-26 2015-01-06 Panasonic Corporation Articulation region display apparatus, articulation region detecting apparatus, articulation region belongingness calculating apparatus, articulated object region belongingness calculating apparatus, and articulation region display method
WO2016017477A1 (en) * 2014-08-01 2016-02-04 株式会社デンソー Image-processing device
JP2016035633A (en) * 2014-08-01 2016-03-17 株式会社デンソー Image processing apparatus
US10796186B2 (en) 2017-07-03 2020-10-06 Fujitsu Limited Part recognition method, information processing apparatus, and imaging control system
CN111033560A (en) * 2017-08-07 2020-04-17 富士通株式会社 Information processing device, model data creation program, and model data creation method
JP2019087126A (en) * 2017-11-09 2019-06-06 日本電信電話株式会社 Image processing device, image processing method and image processing program

Also Published As

Publication number Publication date
JP3780017B2 (en) 2006-05-31

Similar Documents

Publication Publication Date Title
JPH08214289A (en) Device and method for analyzing time series image
US11720185B2 (en) Method and system for determining a correct reproduction of a movement
CN111414797B (en) System and method for estimating pose and pose information of an object
Chen et al. Knowledge-guided visual perception of 3-D human gait from a single image sequence
KR101907077B1 (en) Method and apparatus for motion recognition
Silaghi et al. Local and global skeleton fitting techniques for optical motion capture
CN110892408A (en) Systems, methods, and apparatus for stereo vision and tracking
JP5147761B2 (en) Image monitoring device
CN111862299A (en) Human body three-dimensional model construction method and device, robot and storage medium
JP2003269937A (en) Obstruction recognition device, obstruction recognition method, obstruction recognition program and mobile robot device
CN112083800B (en) Gesture recognition method and system based on adaptive finger joint rule filtering
WO2007010893A1 (en) Joint object position and posture estimating device, its method, and program
Holden et al. Visual sign language recognition
KR102436906B1 (en) Electronic device for identifying human gait pattern and method there of
JPWO2019030794A1 (en) Information processing device, model data creation program, model data creation method
WO2022227664A1 (en) Robot posture control method, robot, storage medium and computer program
JP2003271975A (en) Method of extracting plane, extractor therefor, program therefor, recording medium therefor, and robot system mounted with plane extractor
KR101021470B1 (en) Generating method of robot motion data using image data and generating apparatus using the same
KR20230166319A (en) Device, method and program recording medium for identifying human 3d whole-body pose/motion
JP2008065368A (en) System for recognizing position and posture of object using stereoscopic image, method of recognizing position and posture of object, and program for executing method
Jatesiktat et al. Personalized markerless upper-body tracking with a depth camera and wrist-worn inertial measurement units
WO2022018811A1 (en) Three-dimensional posture of subject estimation device, three-dimensional posture estimation method, and program
JPH06213632A (en) Image measurement device
CN116189049A (en) Deep learning-based eye exercises quality assessment method
JP7464512B2 (en) 3D human posture estimation device, method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060306

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090310

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120310

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees