JPH04259075A - Model generator from time series image - Google Patents

Model generator from time series image

Info

Publication number
JPH04259075A
JPH04259075A JP3020244A JP2024491A JPH04259075A JP H04259075 A JPH04259075 A JP H04259075A JP 3020244 A JP3020244 A JP 3020244A JP 2024491 A JP2024491 A JP 2024491A JP H04259075 A JPH04259075 A JP H04259075A
Authority
JP
Japan
Prior art keywords
image
time
label
series
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP3020244A
Other languages
Japanese (ja)
Inventor
Seiya Shimizu
誠也 清水
Morihito Shiobara
守人 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3020244A priority Critical patent/JPH04259075A/en
Publication of JPH04259075A publication Critical patent/JPH04259075A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To automatically generate an arbitrary object model expressed in a time series image by using another feature point that can be automatically extracted instead of a conventional joint hard to extract in a generator to generate the model from the time series image. CONSTITUTION:This generator is equipped with a silhouette image generating part 3 which inputs a time series label image 1 when labeling is performed on an area and generates a silhouette image in which the ones with the amount of travel of a label area at every time less than a threshold value are unified, and a model generating part 4 which performs line-thinning and extracts the feature point about a generated silhouette image and sets the appearance rate of feature point corresponding to between frames over the threshold value as a structural point. A time series model image formed by connecting those structural points with line segments is outputted.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、時系列画像からのモデ
ル作成装置であって、時系列画像から画像中に描かれた
対象の簡易なモデルを自動的に作成するモデル作成装置
に関するものである。本装置の作成するモデルは、対象
の構造の特徴的な部位を点で表現し、点の間の接続関係
を線で表わすことを特徴とし、その作成に際して対象を
予め仮定しておく必要がないことを特徴としている。
[Field of Industrial Application] The present invention relates to a model creation device from time-series images, and more particularly, to a model creation device that automatically creates a simple model of an object depicted in the images from time-series images. be. The model created by this device is characterized by expressing the characteristic parts of the target structure with points and the connection relationships between the points with lines, and there is no need to assume the target in advance when creating the model. It is characterized by

【0002】本装置の利用分野として時系列画像中の対
象の認識装置が挙げられる。画像中の対象を認識するに
は、画像と予め定義してあるモデルとのマッチングが不
可欠であるが、画像中からマッチングに必要な情報を抽
出することは非常に困難である。本装置が自動的に生成
するモデルは、対象の構造を反映した簡易なモデルであ
り、生成したモデルと予め定義したモデルとのマッチン
グを行うことで処理を容易に行えるようにする。また、
本装置は時系列中の対象の動きを、生成したモデルを構
成する点の各フレームにおける位置情報の変化として記
録しているため、生成したモデルを解析することで、画
像中の対象の運動解析を行うことができる。
[0002] An example of the field of application of this device is a device for recognizing objects in time-series images. In order to recognize an object in an image, it is essential to match the image with a predefined model, but it is extremely difficult to extract the information necessary for matching from the image. The model automatically generated by this device is a simple model that reflects the structure of the object, and matching the generated model with a predefined model facilitates processing. Also,
This device records the movement of the object in a time series as changes in position information in each frame of the points that make up the generated model, so by analyzing the generated model, it is possible to analyze the movement of the object in the image. It can be performed.

【0003】0003

【従来の技術】本発明に直接に対応する従来手法は存在
しないが、類似の手法として下記のものがある。代表的
なものとして、画像中の対象を複数の剛体ロッドが関節
で接合された非剛体物体に限定し、関節間のロッドの連
結関係を推定する手法がある。関節間の連結関係は、ロ
ッドの長さ一定の条件から求める。しかし、この手法は
、各関節の画像上の位置から3次元空間上の位置を推定
し、3次元の位置情報を含むモデルを生成することに主
眼がおかれており、画像上の関節位置や動きが既に判っ
ていることを前提としている点で本発明と大きく異なっ
ている。
2. Description of the Related Art Although there is no conventional method that directly corresponds to the present invention, there are the following similar methods. A typical method is to limit the object in the image to a non-rigid object in which a plurality of rigid rods are joined at joints, and estimate the connection relationship of the rods between the joints. The connection relationship between joints is determined from the condition that the length of the rod is constant. However, this method focuses on estimating the position in three-dimensional space from the position of each joint on the image and generating a model that includes three-dimensional position information. This method differs greatly from the present invention in that it assumes that the movement is already known.

【0004】0004

【発明が解決しようとする課題】上記の手法によれば、
画像中の対象を複数の剛体ロッドが関節で接合された非
剛体物体に限定しているため、画像上の関節位置や速度
を正確に決定する必要があるが、実際には関節位置を特
定することが困難である。そのため、時系列画像からの
モデルの自動生成に応用することが難しいという問題が
ある。また、対象が非剛体に制限を受け、画像が表現す
る対象の自動認識を行う場合、事前に対象が剛体、非剛
体のいずれの部位から構成されているかを判断すること
ができないため、いずれの場合でも対処する手法が望ま
れている。
[Problem to be solved by the invention] According to the above method,
Since the target in the image is limited to a non-rigid object in which multiple rigid rods are connected by joints, it is necessary to accurately determine the joint positions and velocities on the image, but in reality, the joint positions are determined. It is difficult to do so. Therefore, there is a problem that it is difficult to apply it to automatic generation of models from time-series images. In addition, when the target is limited to a non-rigid body and automatic recognition of the target represented by an image is performed, it is not possible to determine in advance whether the target is composed of rigid or non-rigid body parts. There is a need for a method to deal with this situation.

【0005】本発明は、従来の抽出困難な関節の代わり
に自動的に抽出可能な別の特徴点を用い、時系列画像が
表現する任意の対象のモデルを自動生成する手法を提供
することを目的としている。
The present invention aims to provide a method for automatically generating a model of any object represented by time-series images by using other feature points that can be automatically extracted in place of conventional joints that are difficult to extract. The purpose is

【0006】[0006]

【課題を解決するための手段】図1は、本発明の原理構
成図を示す。図1において、シルエット画像生成部3は
、時系列ラベル画像1について、各時刻におけるラベル
領域の移動量が閾値以下のものをまとめたシルエット画
像を生成するものである。
[Means for Solving the Problems] FIG. 1 shows a diagram of the principle configuration of the present invention. In FIG. 1, the silhouette image generation unit 3 generates a silhouette image of time-series label images 1 in which the amount of movement of the label area at each time is less than or equal to a threshold value.

【0007】モデル生成部4は、シルエット画像につい
て、細線化および特徴点抽出を行い、フレーム間の対応
する特徴点の出現確率が閾値以上のもの構造点として生
成するものである。
[0007] The model generation unit 4 performs line thinning and feature point extraction on the silhouette image, and generates as structural points the corresponding feature points between frames whose probability of appearance is equal to or higher than a threshold value.

【0008】[0008]

【作用】本発明は、図1に示すように、シルエット画像
生成部3が領域にラベル付けした時系列ラベル画像1に
ついて各時刻におけるラベル領域の移動量が閾値以下の
ものをまとめてシルエット画像を生成し、モデル生成部
4がシルエット画像について、細線化および特徴点抽出
を行い、フレーム間で対応する特徴点の出現確率が閾値
以上のもの構造点として生成し、これら構造点を線分で
結んだ時系列モデルを出力するようにしている。
[Operation] As shown in FIG. 1, the present invention generates a silhouette image by collecting the time-series label images 1 in which the silhouette image generation unit 3 labels the regions, and the movement amount of the label region at each time is less than a threshold value. The model generation unit 4 performs line thinning and feature point extraction on the silhouette image, generates structural points when the appearance probability of corresponding feature points between frames is equal to or higher than a threshold, and connects these structural points with line segments. I am trying to output a time series model.

【0009】従って、時系列画像から移動量が所定閾値
以下のものをまとめたシルエット画像について、細線化
、特徴点抽出を行ってこれら特徴点を結んで時系列モデ
ルを生成することにより、剛体、非剛体に依存すること
なく、複数の時系列画像から自動的に時系列モデルを生
成することが可能となる。
[0009] Therefore, by thinning the silhouette images, extracting feature points, and connecting these feature points to generate a time-series model, a silhouette image that is a collection of objects whose movement amount is less than a predetermined threshold from a time-series image is used to create a rigid body, It becomes possible to automatically generate a time series model from multiple time series images without relying on non-rigid objects.

【0010】0010

【実施例】次に、図1ないし図4を用いて本発明の構成
および動作を順次詳細に説明する。図1において、時系
列ラベル画像1は、モデル化する対象を背景から分離し
、同一テクスチャ毎に領域分割して、時系列中で対応す
る領域に対して固有のラベルを付加した時系列のラベル
画像である(図3の(a)参照)。ここで、図3の(a
)に示すように、画像の時刻t(t=1、2・・・T)
のフレーム画像をF(t)と表記する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, the structure and operation of the present invention will be explained in detail with reference to FIGS. 1 to 4. In Figure 1, time-series label image 1 is a time-series label in which the object to be modeled is separated from the background, divided into regions for each texture, and unique labels are added to corresponding regions in the time series. This is an image (see (a) in FIG. 3). Here, (a
), the image time t (t=1, 2...T)
The frame image of is written as F(t).

【0011】シルエット画像生成部3は、入力された時
系列ラベル画像1の各時刻におけるラベル領域の重心位
置と慣性主軸方向を抽出し、F(t)とF(t+1)間
の領域の移動量を計算する領域移動量抽出部31、この
計算した移動量を格納する領域移動量格納部32、ラベ
ル領域の各時刻における2次元隣接関係を抽出する領域
隣接関係抽出部33、この抽出した2次元隣接関係を格
納する領域隣接関係格納部34、領域移動量格納部32
および領域隣接関係格納部34を参照して1≦t<Tの
全時刻を通じて領域間の相対的な移動量が小さく、かつ
高い確率で2次元隣接関係を保持するラベル領域同士が
3次元空間でも隣接関係を持つとみなしてこれらを併合
した時系列シルエット画像O(ゴシック体)を作成する
画像生成部35から構成されるものである。
The silhouette image generation unit 3 extracts the center of gravity position and principal axis of inertia direction of the label region at each time of the inputted time-series label image 1, and calculates the amount of movement of the region between F(t) and F(t+1). A region movement amount extraction unit 31 that calculates the movement amount, an area movement amount storage unit 32 that stores the calculated movement amount, an area adjacency relationship extraction unit 33 that extracts the two-dimensional adjacency relationship at each time of the label area, and this extracted two-dimensional Area adjacency relationship storage unit 34 that stores adjacency relationships, area movement amount storage unit 32
And with reference to the area adjacency relationship storage unit 34, even if the label areas that have a small relative movement between areas at all times of 1≦t<T and that maintain a two-dimensional adjacency relationship with each other with a high probability are in three-dimensional space, It is composed of an image generation unit 35 that creates a time-series silhouette image O (Gothic font) by merging these images, assuming that they have an adjacency relationship.

【0012】モデル生成部4は、時系列シルエット画像
O(ゴシック体)から時系列モデル画像M(ゴシック体
)を生成するものであって、細線化部41、距離変換部
42、特徴点抽出部43、特徴点対応処理部44、構造
点抽出部46などから構成されるものである。細線化部
41は、時系列シルエット画像O(ゴシック体)の各フ
レーム画像O(t)について細線化(シルエット画像中
の形状を周囲から削り、中心線を抽出する処理)するも
のである。
The model generation section 4 generates a time series model image M (Gothic font) from the time series silhouette image O (Gothic font), and includes a thinning section 41, a distance conversion section 42, and a feature point extraction section. 43, a feature point correspondence processing section 44, a structure point extraction section 46, and the like. The thinning unit 41 thins each frame image O(t) of the time-series silhouette image O (Gothic font) (processing to remove the shape in the silhouette image from its surroundings and extract the center line).

【0013】距離変換部42は、細線化画像上の点の距
離変換値(シルエット画像の背景と点間の最短距離値)
を画素値とする画像C(t)を生成するものである(図
3の(c)参照)。特徴点抽出部43は、画像C(t)
を参照して、各時刻毎に特徴点候補を決定するものであ
る。特徴点候補としては、画像C(t)上で交差数が0
(内部点、孤立点)と、2(連結点)以外の点をとる。 また、これら点に挟まれる画像C(t)のうちで最大の
画素値(距離変換値)を持つ点も特徴点候補に追加する
。特徴点候補の座標値とそれらの間の画像C(t)上で
の接続関係を抽出し、接続関係にある2点の特徴点間の
ユークリッド距離(最短距離)と2点の画素値(距離変
換値)を比較して、2点が近接して存在する場合に画素
の小さい特徴点候補を画素値が大きい特徴点候補に併合
する。併合後に存在する点を特徴点とする。以上の処理
により、全時刻について、特徴点の座標値、接続関係を
抽出する。
The distance conversion unit 42 converts the distance conversion value of the point on the thinned image (the shortest distance value between the background of the silhouette image and the point)
This is to generate an image C(t) whose pixel values are (see (c) in FIG. 3). The feature point extraction unit 43 extracts the image C(t)
The feature point candidates are determined at each time by referring to the following. As feature point candidates, the number of intersections is 0 on image C(t).
(internal points, isolated points) and points other than 2 (connected points). Also, a point with the largest pixel value (distance conversion value) among the images C(t) sandwiched between these points is also added to the feature point candidates. The coordinate values of the feature point candidates and the connection relationship between them on the image C(t) are extracted, and the Euclidean distance (shortest distance) between the two feature points in the connection relationship and the pixel value (distance) of the two points are extracted. If two points exist close to each other, the feature point candidate with the smaller pixel value is merged with the feature point candidate with the larger pixel value. The points that exist after merging are defined as feature points. Through the above processing, coordinate values and connection relationships of feature points are extracted for all times.

【0014】特徴点対応処理部44は、時刻tと、時刻
(t+1)の間で特徴点の対応づけを行う。特徴点の対
応づけは、まず、時刻tの特徴点座標が時刻(t+1)
でどこに移動するかを、特徴点が存在する時系列ラベル
画像F(t)中の領域の移動量により推定し、その推定
された補正値と時刻(t+1)の特徴点座標値を比較し
て、ユークリッド距離が近いもの同士を対応づけること
で行う。
The feature point correspondence processing unit 44 associates feature points between time t and time (t+1). To associate feature points, first, the feature point coordinates at time t are time (t+1).
Estimate where the feature point will move based on the amount of movement of the region in the time-series label image F(t) where the feature point exists, and compare the estimated correction value with the feature point coordinate value at time (t+1). , by associating items with close Euclidean distance.

【0015】構造点抽出部46は、2つのフレーム間で
特徴点の対応づけを終了した後に、時系列中で対応関係
にある特徴点に対して固有のラベル付けを行い、特徴点
のラベル毎に時系列中の出現確率を計算する。出現確率
が一定の閾値を越えた特徴点は、画像中の対象の構造を
表わす代表的な点であるとみなし、構造点として登録す
る。また、構造点間の細線化画像上での接続関係を抽出
する。これら構造点の時系列の位置座標と、その接続関
係を、求める時系列画像中の対象のモデルとし、各時刻
毎に、構造点を画像上の点として表わし、接続関係に従
って点間を線で結ぶことで、モデルを画像化した時系列
モデル画像M(ゴシック体)を出力する(図3の(d)
参照)。
After completing the correspondence between the feature points between the two frames, the structure point extraction unit 46 assigns a unique label to the feature points that have a corresponding relationship in the time series, and assigns a unique label to each feature point label. Calculate the probability of occurrence in the time series. A feature point whose appearance probability exceeds a certain threshold is considered to be a representative point representing the structure of the object in the image, and is registered as a structure point. Furthermore, the connection relationships between structural points on the thinned image are extracted. The time-series position coordinates of these structural points and their connection relationships are used as a model of the object in the desired time-series image, and at each time, the structure points are represented as points on the image, and lines are drawn between the points according to the connection relationships. By tying them together, a time-series model image M (Gothic font) is output, which is an image of the model ((d) in Figure 3).
reference).

【0016】以上のように、時系列ラベル画像F中のラ
ベル領域の2次元画像上の動きと隣接関係より、画像中
の3次元空間中でのラベル領域間の隣接関係を仮定する
。そして、仮定した隣接関係にあるラベル領域を併合し
、対象の3次元空間中の構造を反映したシルエット画像
を生成し、これをもとに細線化などした画像C(t)を
作成し、画像C(t)上の点の画素値(距離変換値)と
交差数をもとに特徴点候補を決定する。これにより、任
意の時系列画像から、画像中の対象の3次元的な構造を
反映した特徴点候補を自動的に得ることが可能となる。
As described above, the adjacency relationship between the label areas in the three-dimensional space in the image is assumed based on the movement and adjacency relationship of the label areas in the time-series label image F on the two-dimensional image. Then, the label areas in the assumed adjacency relationship are merged to generate a silhouette image that reflects the structure of the object in three-dimensional space, and based on this, an image C(t) is created by thinning etc. Feature point candidates are determined based on the pixel value (distance conversion value) of the point on C(t) and the number of intersections. This makes it possible to automatically obtain feature point candidates that reflect the three-dimensional structure of the object in the image from any time-series image.

【0017】次に、抽出した特徴点候補を、その距離変
換値を用いて併合してゆくことで、空間的な画像の対象
の簡略化を行う。また、時系列中で低い確率で存在する
特徴点や特徴点間の接続関係を除去することにより、時
間的な対象の簡略化を行う。従って、空間と時間的に単
純な対象の記述を抽出することができ、これを図3の(
d)に示すように、構造点を接続関係に従って線で結ん
で時系列モデル画像M(ゴシック体)を生成して出力す
る。
Next, by merging the extracted feature point candidates using their distance transformation values, the spatial image object is simplified. Furthermore, the temporal object is simplified by removing feature points that exist with low probability in the time series and connection relationships between feature points. Therefore, it is possible to extract a description of a spatially and temporally simple object, which is shown in Figure 3 (
As shown in d), a time-series model image M (Gothic font) is generated and output by connecting the structural points with lines according to the connection relationship.

【0018】次に、図2のフローチャートに従って、図
1の構成の全体の動作を説明する。図2において、S1
は、閉領域にラベル付けした画像Fの取り込みを行う。 これは、モデル化対象の画像を背景から分離し、領域分
割して固有のラベルを付加した時系列ラベル画像Fの取
り込みを行う(図3の(a)参照)。S2は、フレーム
間でラベル領域の移動量を算出、およびラベル領域の隣
接関係を抽出する。これは、S1で取り込んだ時系列ラ
ベル画像Fについて、フレーム間でラベル領域の重心位
置の移動量を算出する。
Next, the overall operation of the configuration shown in FIG. 1 will be explained according to the flowchart shown in FIG. In FIG. 2, S1
imports the image F in which closed regions are labeled. This involves separating the image to be modeled from the background, dividing it into regions, and importing a time-series label image F with a unique label added (see (a) in FIG. 3). S2 calculates the amount of movement of the label area between frames and extracts the adjacency relationship of the label areas. This calculates the amount of movement of the center of gravity of the label region between frames for the time-series label image F imported in S1.

【0019】S3は、隣接する確率が高いラベル領域の
移動量が閾値以下のものをまとめてシルエット画像O(
ゴシック体)を作成する。これは、図3の(b)時系列
シルエット画像O(ゴシック体)に示すように、移動量
が閾値以下の隣接する領域をまとめた画像O(ゴシック
体)を生成する。S4は、シルエット画像の形状輪郭を
周辺から削って細線化画像を生成する。
In step S3, label areas with a high probability of adjacency whose movement amount is less than a threshold are combined into a silhouette image O(
Gothic). This generates an image O (Gothic font) in which adjacent regions whose movement amount is equal to or less than the threshold are grouped together, as shown in the time-series silhouette image O (Gothic font) in FIG. 3(b). In S4, a thin line image is generated by removing the contour of the silhouette image from its periphery.

【0020】S5は、細線化画像上の各画素とシルエッ
ト画像の輪郭までの最短距離を画素値として付与する。 これにより、図3の(c)時系列画像C(ゴシック体)
を生成する。S6は、特徴点候補として・交差点 ・端点 ・分岐点など をとり、画素値の連結している候補点間の直線距離と各
画素値を比較して、近傍の候補点のうち画素値の大きい
ものを特徴点として決定する。これは、各フレーム毎に
独立に決定する。
In step S5, the shortest distance between each pixel on the thinned image and the outline of the silhouette image is assigned as a pixel value. As a result, (c) time-series image C (Gothic font) in Figure 3
generate. S6 selects intersections, end points, branch points, etc. as feature point candidates, compares the straight-line distance between candidate points with connected pixel values and each pixel value, and selects the candidate points with larger pixel values among the nearby candidate points. Determine things as feature points. This is determined independently for each frame.

【0021】S7は、フレーム間の特徴点の対応を、距
離の近いものを対応づけることで求める。S8は、フレ
ーム間で対応する特徴点の出現確率が閾値以上となる特
徴点を構造点として決定、および結合して時系列モデル
画像M(ゴシック体)を作成する。
[0021] In S7, correspondence between feature points between frames is determined by associating feature points that are close in distance. In S8, feature points for which the probability of appearance of corresponding feature points between frames is equal to or higher than a threshold are determined as structural points, and are combined to create a time-series model image M (Gothic font).

【0022】以上によって、閉領域にラベルつけした図
3の(a)時系列ラベル画像F(ゴシック体)を入力と
し、ラベル領域の移動量が閾値以下のものをまとめて図
3の(b)シルエット画像O(ゴシック体)を生成し、
更にこのシルエット画像O(ゴシック体)を細線化、細
線化した画素のシルエット画像の輪郭までの最短距離を
画素値として付与(図3の(c)時系列画像C(ゴシッ
ク体))した後、特徴点を抽出し、フレーム間で出現確
率が閾値以上のものを構造点としてこれら構造点を線で
結んだ図3の(d)時系列モデル画像M(ゴシック体)
を生成して出力することにより、時系列ラベル画像Fか
ら自動的に時系列モデル画像M(ゴシック体)を生成す
ることが可能となる。
As described above, the time-series label image F (Gothic font) shown in FIG. 3(a) in which closed regions are labeled is input, and those whose movement amount is less than the threshold are collectively shown in FIG. 3(b). Generate a silhouette image O (Gothic font),
Furthermore, after thinning this silhouette image O (Gothic font) and assigning the shortest distance of the thinned pixels to the outline of the silhouette image as a pixel value ((c) time series image C (Gothic font) in FIG. 3), Figure 3 (d) is a time-series model image M (Gothic font) in which feature points are extracted and those whose appearance probability between frames is equal to or higher than a threshold are defined as structural points and these structural points are connected with lines.
By generating and outputting , it becomes possible to automatically generate a time-series model image M (Gothic font) from a time-series label image F.

【0023】図3は、本発明の具体例説明図を示す。図
3の(a)は、時系列ラベル画像Fを示す。ここで、F
(0)、F(1)、F(2)は、時刻t=1、t=2、
t=3のときの時系列ラベル画像Fである。これら時系
列ラベル画像F(0)、F(1)、F(2)は、既述し
たように、モデル化する対象を背景から分離し、領域分
割して固定のラベルを付与した各時刻における画像を模
式的に表わしたものである。
FIG. 3 shows a diagram illustrating a specific example of the present invention. (a) of FIG. 3 shows a time-series label image F. Here, F
(0), F(1), F(2) are at time t=1, t=2,
This is a time-series label image F when t=3. These time-series label images F(0), F(1), and F(2) are generated at each time when the object to be modeled is separated from the background, divided into regions, and fixed labels are assigned, as described above. This is a schematic representation of an image.

【0024】図3の(b)は、時系列シルエット画像O
(ゴシック体)を示す。これは、既述したように、図3
の(a)の各フレーム間で相対的な移動量が小さくかつ
高い確率で隣接関係を保持する領域をまとめた画像(=
シルエット画像)である。図3の(c)は、時系列画像
C(ゴシック体)(非0の画素を黒く表示)を示す。こ
れは、既述したように、図3の(b)時系列シルエット
画像O(ゴシック体)を細線化、細線化画像上の点の距
離変換値を画素値とした画像である。
FIG. 3(b) shows a time-series silhouette image O
(Gothic). As mentioned above, this is shown in Figure 3.
An image (=
silhouette image). FIG. 3C shows a time-series image C (Gothic font) (non-zero pixels are displayed in black). As described above, this is an image in which the time-series silhouette image O (Gothic font) shown in FIG.

【0025】図3の(d)は、時系列モデル画像M(ゴ
シック体)を示す。これは、既述したように、図3の(
c)時系列画像C(ゴシック体)上から特徴点を抽出し
、更にフレーム間で出現頻度の高いものを構造点として
抽出し、これら構造点を線分で結んだ画像(時系列ラベ
ル画像F(ゴシック体)をモデル化した画像)である。
FIG. 3(d) shows a time-series model image M (Gothic font). As mentioned above, this (
c) Extract feature points from time-series image C (Gothic font), extract those that appear frequently between frames as structural points, and connect these structural points with line segments to create an image (time-series label image F). (image modeled on Gothic font).

【0026】次に、図4を用いて更に詳細に説明する。 図4は、本発明の1実施例構成図を示す。図4において
、画像入力部1−1は、カメラなどの画像入力装置によ
って、アニメーション原画像A(ゴシック体)を読込ん
だりするものである。各フレーム画像A(t)は、閉領
域毎に仮ラベルが付加された仮ラベル画像L(t)に変
換すると共にその色情報を抽出し、これらをフレーム間
領域対応部2に送る。
Next, a more detailed explanation will be given using FIG. 4. FIG. 4 shows a configuration diagram of one embodiment of the present invention. In FIG. 4, an image input unit 1-1 reads an animation original image A (Gothic font) using an image input device such as a camera. Each frame image A(t) is converted into a temporary label image L(t) in which a temporary label is added for each closed area, and its color information is extracted and sent to the inter-frame area correspondence section 2.

【0027】フレーム間領域対応部2は、仮ラベル画像
間の領域対応を決定し、対応する領域に対して全時刻を
通して固有のラベルを付加した時系列ラベル画像F(ゴ
シック体)を生成するものであって、仮ラベル画像格納
部21、領域特徴抽出部22、領域特徴格納部23、類
似度作成部24、領域対応処理部25、領域対応格納部
26、ラベル画像書換え部27などから構成されるもの
である。
The inter-frame area correspondence unit 2 determines the area correspondence between temporary label images, and generates a time-series label image F (Gothic font) in which a unique label is added to the corresponding area at all times. It is composed of a temporary label image storage section 21, a region feature extraction section 22, a region feature storage section 23, a similarity generation section 24, a region correspondence processing section 25, a region correspondence storage section 26, a label image rewriting section 27, etc. It is something that

【0028】仮ラベル画像格納部21は、画像入力部1
−1から入力された仮ラベル画像L(t)を格納するも
のである。領域特徴抽出部22は、仮ラベル画像格納部
21を参照し、仮ラベル画像L(t)の各フレーム画像
の各ラベル領域毎の領域特徴(面積、周囲長、複雑度、
チェインコード・ヒストグラム、重心位置、慣性主軸方
向の6種類)を抽出し、領域特徴格納部23に格納する
ものである。ここで、領域特徴の面積は仮ラベル領域の
画素数、周囲長は仮ラベル領域の輪郭線上の画素数、複
雑度は周囲長の2乗を面積で割った値、チェインコード
・ヒストグラムは慣性主軸方向を画像の縦軸に一致させ
たときのラベル領域の輪郭を8方向のチェインコードで
表わした0から7のコード毎に累積した度数表、重心位
置は仮ラベル領域の重心の画像上の座標値、慣性主軸方
向は仮ラベル領域の慣性主軸と画像の横軸とがなす反時
計回りの角度である。
The temporary label image storage section 21 is connected to the image input section 1.
It stores the temporary label image L(t) input from -1. The area feature extraction unit 22 refers to the temporary label image storage unit 21 and extracts area features (area, perimeter, complexity, etc.) for each label area of each frame image of the temporary label image L(t).
6 types (chain code histogram, center of gravity position, direction of principal axis of inertia) are extracted and stored in the area feature storage unit 23. Here, the area of the area feature is the number of pixels in the temporary label area, the perimeter is the number of pixels on the outline of the temporary label area, the complexity is the square of the perimeter divided by the area, and the chain code histogram is the principal axis of inertia. The outline of the label area when the direction matches the vertical axis of the image is expressed as a chain code in 8 directions, and the frequency table is accumulated for each code from 0 to 7. The center of gravity is the coordinate on the image of the center of gravity of the temporary label area. The value and principal axis of inertia direction is the counterclockwise angle formed by the principal axis of inertia of the temporary label area and the horizontal axis of the image.

【0029】領域特徴格納部23は、上記領域特徴や、
色情報などを格納するものである。類似度作成部24は
、領域特徴格納部23から取り出した領域特徴(上記領
域特徴および色情報)より、全ての組み合わせについて
領域形状の類似度を計算するものである。領域対応処理
部25は、類似度作成部24によって計算された仮ラベ
ル領域の2フレーム間の類似度をもとに、最も類似度の
高い仮ラベル領域の対応づけを選択して決定するもので
ある。対応づけた結果は、領域対応格納部26に格納す
る。
The region feature storage unit 23 stores the above region features,
It stores color information, etc. The similarity creation unit 24 calculates the similarity of area shapes for all combinations from the area features (the above area features and color information) extracted from the area feature storage unit 23. The area correspondence processing unit 25 selects and determines the association of the temporary label areas with the highest degree of similarity based on the degree of similarity between the two frames of the temporary label areas calculated by the similarity generation unit 24. be. The results of the association are stored in the area correspondence storage section 26.

【0030】ラベル画像書換え部27は、領域対応格納
部26から取り出した仮ラベル領域の対応関係をもとに
、全時刻を通じて固有のラベルを付加した時系列ラベル
画像に書き換えるものである。以上の処理によって、対
応する領域に対して全時刻を通じて固有のラベルを付加
した、図3の(a)に示すような時系列ラベル画像F(
ゴシック体)を作成する。
The label image rewriting unit 27 rewrites the image into a time-series label image to which a unique label is added at all times based on the correspondence of the temporary label areas taken out from the area correspondence storage unit 26. Through the above processing, a time-series label image F (as shown in FIG. 3(a)) in which unique labels are added to corresponding regions at all times (
Gothic).

【0031】シルエット画像生成部3は、既述したよう
に、図3の(a)時系列ラベル画像F(ゴシック体)か
ら、図3の(b)時系列シルエット画像O(ゴシック体
)を生成するものである。図中、領域移動量抽出部31
、領域移動量格納部32、領域隣接関係抽出部33、領
域隣接関係格納部34、画像生成部35は、図1と同一
のものである。
As described above, the silhouette image generation unit 3 generates the (b) time-series silhouette image O (Gothic font) in FIG. 3 from the (a) time-series label image F (Gothic font) in FIG. It is something to do. In the figure, area movement amount extraction unit 31
, the area movement amount storage section 32, the area adjacency relationship extraction section 33, the area adjacency relationship storage section 34, and the image generation section 35 are the same as those in FIG.

【0032】領域移動量抽出部31はラベル画像格納部
30を参照して、時刻tにおけるラベル領域の重心位置
座標(x、y)を抽出し、時系列中で隣接する2つのフ
レーム間の重心位置の画像中での変化量を計算し、ラベ
ル領域の移動量として求める。隣接領域関係抽出部33
は時刻tの画像F(t)上で、ラベル領域間の2次元隣
接関係を抽出する。画像生成部35は全時刻を通して領
域間の相対的に移動量が小さく、かつ、高い確率で2次
元隣接関係を保持するラベル領域同士が3次元空間でも
隣接関係を持つとみなしてそれらを併合した時系列シル
エット画像O(ゴシック体)を作成する。
The area movement amount extraction unit 31 refers to the label image storage unit 30, extracts the barycenter position coordinates (x, y) of the label area at time t, and extracts the barycenter position coordinates (x, y) of the label area at time t. The amount of change in position in the image is calculated and determined as the amount of movement of the label area. Adjacent area relationship extraction unit 33
extracts the two-dimensional adjacency relationship between label regions on the image F(t) at time t. The image generation unit 35 assumes that label regions that have a relatively small amount of movement between regions at all times and maintain a two-dimensional adjacency relationship with a high probability have an adjacency relationship in three-dimensional space, and merge them. Create a time-series silhouette image O (Gothic font).

【0033】また、モデル生成部4は、既述したように
、図3の(b)時系列シルエット画像O(ゴシック体)
から、図3の(c)時系列画像C(ゴシック体)(非0
の画素を黒く表示)、更に図3の(d)時系列モデル画
像M(ゴシック体)をつくるもととなる構造点および接
続関係を生成するものである。図中の細線化部41、距
離変換部42、特徴点抽出部43、特徴点対応処理部4
4、構造点抽出部46は、図1と同一のものである。ま
た、シルエット画像格納部40は時系列シルエット画像
を格納するもの、特徴点対応格納部45は特徴点対応処
理部44で求めた特徴点の対応関係の情報を格納するも
のである。
In addition, as described above, the model generation unit 4 generates the time-series silhouette image O (Gothic font) shown in FIG. 3(b).
From (c) time-series image C (Gothic) (non-0
3 (d) time-series model image M (Gothic font) is generated. Thinning unit 41, distance conversion unit 42, feature point extraction unit 43, and feature point correspondence processing unit 4 in the figure
4. The structure point extraction unit 46 is the same as that shown in FIG. Further, the silhouette image storage unit 40 stores time-series silhouette images, and the feature point correspondence storage unit 45 stores information on the correspondence of feature points determined by the feature point correspondence processing unit 44.

【0034】細線化部41は、シルエット画像格納部4
0を参照して、図3の(b)時系列シルエット画像O(
ゴシック体)中の領域形状を周囲から削り、形状の幅の
中心線を抽出する細線化処理を行い、細線化した領域形
状(中心線)の画素値を1、それ以外の点の画素値を0
とした画像を作成する。距離変換部42はこの細線化し
た画像上の画素値1の点と同じ座標値を持つ時系列シル
エット画像O(ゴシック体)上の点の距離変換値(背景
とその座標値の点との間の最短距離値)を求め、この距
離変換値を同じ座標の画素値とする細線化距離変換画像
C(t)を生成する。ここで、距離変換値は背景の距離
変換値を0、領域輪郭上の点を1とする。これにより、
画像C(t)は、画素値が非0の点の座標が、対象のシ
ルエット形状の中心線座標を表わし、その点の画素値が
形状の太さを表わす画像となる。特徴点抽出部43は時
系列画像C(ゴシック体)を参照して、各時刻毎に特徴
点を決定する。まず、画像C(ゴシック体)(t)の非
0の点の連結の状態を、その点の交差数(その点の8近
傍を1周とするとき、背景(画素値=0から領域内(画
素値≠0)に遷移する回数)で判別して特徴点候補を選
出する。特徴点候補は、画像C(t)上で交差数が1の
点(端点)、3の点(分岐点)、4の点(交差点)であ
る。次に、画像C(t)の非0の点の画素値(距離変換
値)をもとに、既に交差数で判別して選出した特徴点候
補により挟まれた線分区間で、画素値最大となる点を特
徴点候補として追加する(但し、画素値が最大となる点
が既に特徴点候補となっている場合は追加しない)。特
徴点候補の決定は、特徴点候補の座標値と、それらの間
の画像C(t)上での接続関係を抽出し、接続関係にあ
る特徴点候補を併合することで行う。
The thinning section 41 includes the silhouette image storage section 4
0, the (b) time-series silhouette image O(
Gothic font), remove the area shape from its surroundings, perform thinning processing to extract the center line of the width of the shape, set the pixel value of the thinned area shape (center line) to 1, and set the pixel values of other points to 1. 0
Create an image. The distance conversion unit 42 calculates the distance conversion value (between the background and the point with the coordinate value) of the point on the time-series silhouette image O (Gothic font) that has the same coordinate value as the point with the pixel value 1 on this thinned image. , and generates a thinned distance-converted image C(t) using this distance-converted value as the pixel value at the same coordinates. Here, the distance conversion value is 0 for the background and 1 for a point on the area outline. This results in
The image C(t) is an image in which the coordinates of a point with a non-zero pixel value represent the center line coordinates of the target silhouette shape, and the pixel value of that point represents the thickness of the shape. The feature point extraction unit 43 refers to the time-series image C (Gothic font) and determines feature points at each time. First, the state of connection of non-zero points of image C (Gothic font) (t) is determined by the number of intersections of that point (when 8 neighborhoods of that point are considered as one round), from the background (pixel value = 0) to the area ( Feature point candidates are selected by determining the number of times the pixel value changes to (pixel value≠0)).Feature point candidates are points with 1 intersection (end point) and points with 3 intersections (branch point) on image C(t). , 4 points (intersections).Next, based on the pixel values (distance conversion values) of non-zero points in image C(t), the points sandwiched by the feature point candidates that have already been selected based on the number of intersections are determined. Add the point with the maximum pixel value as a feature point candidate in the line segment section (however, if the point with the maximum pixel value is already a feature point candidate, do not add it).Determine feature point candidates. This is performed by extracting the coordinate values of the feature point candidates and the connection relationship between them on the image C(t), and merging the feature point candidates in the connection relationship.

【0035】以上の処理によって、全時刻において、特
徴点の座標値、接続関係を抽出した後、特徴点対応処理
部44は時刻tと時刻(t+1)の2フレーム間で特徴
点の対応づけを行う。そして、構造点抽出部46は時系
列中で対応関係にある特徴点に対して、全ての時刻中で
固有のラベルつけを行う。t=1の特徴点は、全ての固
有のラベルを付加する。t≠1のときは、特徴点対応格
納部45に格納されている特徴点の対応関係を参照して
、対応する同じラベルを付加し、存在しないときは未使
用ラベルを新たに付加する。この結果、特徴点には全時
刻を通じて固有のラベルが付加されることとなる。そし
て、付加されたラベルに合わせて、接続関係を書き換え
る。次に、ラベル毎に全フレーム中の出現確率を抽出し
、ある閾値以上の出現確率を持つ特徴点を時系列中で対
象の構造を表わす代表点とみなし、登録すると共に、各
時刻における構造点の座標値、接続関係を抽出する。 モデル画像生成部5は、これらの構造点の各時刻におけ
る座標値、接続関係をもとに線分で結び、図3の(d)
に示すような時系列モデル画像Mを生成し、時系列画像
中の対象のモデルの構造として出力する。
After extracting the coordinate values and connection relationships of the feature points at all times through the above processing, the feature point correspondence processing unit 44 associates the feature points between the two frames of time t and time (t+1). conduct. Then, the structure point extraction unit 46 uniquely labels the feature points that have a corresponding relationship in the time series at all times. The feature point at t=1 adds all unique labels. When t≠1, the same corresponding label is added by referring to the correspondence of the feature points stored in the feature point correspondence storage section 45, and when it does not exist, a new unused label is added. As a result, a unique label is added to the feature point at all times. Then, the connection relationship is rewritten according to the added label. Next, the appearance probabilities in all frames are extracted for each label, and feature points with appearance probabilities higher than a certain threshold are regarded as representative points representing the target structure in the time series and are registered, as well as structural points at each time. Extract the coordinate values and connection relationships. The model image generation unit 5 connects these structure points with line segments based on the coordinate values and connection relationships at each time, and connects these structure points with line segments, as shown in (d) of FIG.
A time-series model image M as shown in is generated and output as the structure of the target model in the time-series image.

【0036】以下数式を用い、図4に従って更に詳細に
説明する。図4において、フレーム間領域対応部2は、
仮ラベル画像間の領域対応を決定し、対応する領域に対
して全時刻を通して固有のラベルを付加した時系列ラベ
ル画像F(ゴシック体)を作成する。領域特徴抽出部2
2は、仮ラベル画像格納部21を参照し、L(ゴシック
体)の各フレーム画像の各ラベル領域毎の領域特徴を抽
出して領域特徴格納部23に格納する。抽出する領域特
徴は、面積、周囲長、複雑度、チェインコード・ヒスト
グラム、重心位置、慣性主軸方向の6種類である。面積
は仮ラベル領域の画素数、周囲長は仮ラベル領域の輪郭
線上の画素数、複雑度は周囲長の2乗を面積で割った値
、チェインコード・ヒストグラムは慣性主軸方向を画像
の縦軸に一致させたときのラベル領域の輪郭を8方向の
チェインコードで表わした0から7のコード毎に累積し
た度数表、重心位置は仮ラベル領域の重心の画像上の座
標値、慣性主軸方向は仮ラベル領域の慣性主軸と画像の
横軸とがなす反時計回りの角度とする。領域特徴抽出部
22は、抽出した領域特徴を領域特徴格納部23に格納
する。
A more detailed explanation will be given below using mathematical expressions and according to FIG. In FIG. 4, the interframe area correspondence unit 2
The area correspondence between temporary label images is determined, and a time-series label image F (Gothic font) is created in which a unique label is added to the corresponding area at all times. Region feature extraction unit 2
2 refers to the temporary label image storage unit 21, extracts the area feature for each label area of each frame image of L (Gothic font), and stores it in the area feature storage unit 23. There are six types of region features to be extracted: area, perimeter, complexity, chain code histogram, center of gravity position, and principal axis of inertia direction. The area is the number of pixels in the temporary label area, the perimeter is the number of pixels on the outline of the temporary label area, the complexity is the square of the perimeter divided by the area, and the chain code histogram is based on the principal axis of inertia as the vertical axis of the image. The contour of the label area when matching is expressed as a chain code in 8 directions, and the frequency table is accumulated for each code from 0 to 7. The center of gravity position is the coordinate value on the image of the center of gravity of the temporary label area, and the direction of the principal axis of inertia is This is the counterclockwise angle between the principal axis of inertia of the temporary label area and the horizontal axis of the image. The region feature extraction unit 22 stores the extracted region features in the region feature storage unit 23.

【0037】類似度作成部24と領域対応処理部25は
、L(t)とL(t+1)の2画像間で次の処理を行う
。まず、領域特徴格納部23に格納されているL(t)
中の仮ラベルk領域の領域特徴と、L(t+1)中の仮
ラベルl領域の領域特徴より、全てのkとlの組み合わ
せについて領域形状の類似度Rt(k,l)を計算する
。本実施例は領域特徴として上記の6種類と領域の色情
報を用いて仮ラベルk領域と仮ラベルl領域間の類似度
を計算する。
The similarity creation unit 24 and the area correspondence processing unit 25 perform the following processing between the two images L(t) and L(t+1). First, L(t) stored in the area feature storage unit 23
The region shape similarity Rt(k,l) is calculated for all combinations of k and l from the region feature of the region with temporary label k in L(t+1) and the region feature of the region with temporary label l in L(t+1). In this embodiment, the degree of similarity between the temporary label k area and the temporary label l area is calculated using the above six types of area features and the color information of the area.

【0038】[0038]

【数1】[Math 1]

【0039】ここで、「和」、「差」は共に、L(t)
中の仮ラベルk領域とL(t+1)中の仮ラベルl領域
の領域特徴間での演算である。Rt(k,l)の値は、
[0,1]の実数値をとり、原画像で違う色の仮ラベル
領域間で0の値をとり、それ以外の仮ラベル領域間では
、2領域の領域特徴の差が小さいほど1に近い値をとる
ように設定されている。計算された類似度の値は、領域
対応処理部25に送られる。領域対応処理部25では、
Rt(k,l)を基にして次の評価関数Etを最大化す
るように仮ラベルl領域に対応する仮ラベルk領域を1
対1に選択する。仮ラベルl領域と仮ラベルk領域の対
応は(k,l)の順序対で表現され、全対応は順序対の
集合Φtで表わされる。
Here, both "sum" and "difference" are L(t)
This is an operation between the area features of the temporary label k area in L(t+1) and the temporary label l area in L(t+1). The value of Rt(k,l) is
It takes a real value of [0, 1], and takes a value of 0 between temporary label areas of different colors in the original image, and for other temporary label areas, the smaller the difference in area features between the two areas, the closer it is to 1. It is set to take a value. The calculated similarity value is sent to the area correspondence processing unit 25. In the area correspondence processing unit 25,
Based on Rt (k, l), the temporary label k area corresponding to the temporary label l area is set to 1 so as to maximize the next evaluation function Et.
Choose one against the other. The correspondence between the temporary label l area and the temporary label k area is expressed by an ordered pair (k, l), and the entire correspondence is expressed by a set Φt of ordered pairs.

【0040】[0040]

【数2】[Math 2]

【0041】仮ラベル領域の2フレーム間対応結果Φt
は、領域対応格納部26に格納される。(T−1)以下
となる全ての時刻tに対してΦtが抽出され、格納され
た後、ラベル画像書換え部27は、時系列仮ラベル画像
L(ゴシック体)のラベルを書換えて時系列ラベル画像
F(ゴシック体)を作成する。
[0041] Correspondence result Φt between two frames in the temporary label area
is stored in the area correspondence storage section 26. After Φt is extracted and stored for all times t below (T-1), the label image rewriting unit 27 rewrites the label of the time series temporary label image L (Gothic font) to label the time series Create image F (Gothic font).

【0042】ラベル画像書換え部27はまず、L(1)
中の全ての領域に対して固有のラベルを付加して、ラベ
ル画像F(1)を作成する。t≠1の画像に関しては、
領域対応格納部26からΦ(t−1)を参照して、L(
t)中の仮ラベル領域に対して、それに対応するL(t
−1)中の領域が存在するときは、その対応する領域に
付加されたのと同じ固有のラベルを付加し、対応する領
域がないときは、時刻tまでに使用されていないラベル
を新たに付加して、画像F(t)を作成する。こうして
作成されたF(ゴシック体)は、対応する領域に対して
全時刻を通して固有のラベルが付加された時系列ラベル
画像となっており、シルエット画像生成部3への入力画
像となる(図3の(a)参照)。
[0042] The label image rewriting unit 27 first reads L(1)
A label image F(1) is created by adding unique labels to all the regions therein. For images with t≠1,
Referring to Φ(t-1) from the area correspondence storage unit 26, L(
t), the corresponding L(t
-1) If the area in the middle exists, add the same unique label that was added to the corresponding area, and if there is no corresponding area, add a new label that has not been used by time t. The image F(t) is created by adding the image F(t). F (Gothic font) created in this way is a time-series label image in which a unique label is added to the corresponding area at all times, and becomes an input image to the silhouette image generation unit 3 (Fig. 3 (see (a)).

【0043】シルエット画像生成部3に入力された時系
列画像F(ゴシック体)は、ラベル画像格納部30に格
納される。領域移動量抽出部31は、ラベル画像格納部
30を参照して、時刻tにおけるラベル領域iの重心位
置座標(Xit,Yit)を抽出し、時系列中の隣接す
る2フレーム、F(t)とF(t+1)間の重心位置の
画像中での変化量を計算してラベル領域iの移動量とす
る。
The time-series image F (Gothic font) input to the silhouette image generation section 3 is stored in the label image storage section 30. The area movement amount extraction unit 31 refers to the label image storage unit 30, extracts the barycenter position coordinates (Xit, Yit) of the label area i at time t, and extracts the coordinates (Xit, Yit) of the center of gravity of the label area i at time t, and extracts the coordinates (Xit, Yit) of the center of gravity of the label area i at time t, and extracts the coordinates (Xit, Yit) of the center of gravity of the label area i at time t. The amount of change in the center of gravity position in the image between and F(t+1) is calculated and used as the amount of movement of the label area i.

【0044】 X軸方向移動量:ΔXit=Xi(t+1)−XitY
軸方向移動量:ΔYit=Yi(t+1)−Yitただ
し、F(t)がF(t+1)中にラベル領域iが存在し
ないときは、移動量を0とする。計算したΔXit、Δ
Yitを領域移動量格納部32に格納する。
Amount of movement in the X-axis direction: ΔXit=Xi(t+1)−XitY
Axial movement amount: ΔYit=Yi(t+1)−Yit However, when F(t) does not include the label area i in F(t+1), the movement amount is set to 0. Calculated ΔXit, Δ
Yit is stored in the area movement amount storage unit 32.

【0045】領域隣接関係抽出部33は、時刻tの画像
F(t)上で、ラベルi領域とラベル領域jの2次元隣
接関係を抽出する。この2次元隣接関係Nt(i,j)
は、次のように定義された値を持つ。   Nt(i,j)=1  (iとjが輪郭線を挟んで
隣接する場合)                  
0  (iとjが輪郭線を挟んで隣接していない場合)
Nt(i,j)が0となる場合は、iやjがF(t)中
に存在しない場合も含んでいる。全ての、t、i、jに
ついてNt(i,j)を抽出し、領域隣接関係格納部3
4に格納する。
The area adjacency relationship extraction unit 33 extracts the two-dimensional adjacency relationship between the label i area and the label area j on the image F(t) at time t. This two-dimensional adjacency relationship Nt(i,j)
has a value defined as follows. Nt (i, j) = 1 (when i and j are adjacent with the contour line in between)
0 (if i and j are not adjacent across the outline)
The case where Nt(i,j) is 0 includes the case where i or j does not exist in F(t). Extract Nt (i, j) for all t, i, j, and store it in the area adjacency relationship storage unit 3.
Store in 4.

【0046】画像生成部35は、領域移動量格納部32
と領域隣接関係格納部34を参照し、全時刻を通して領
域間の相対的な移動量が小さく、かつ、高い確率で2次
元隣接関係を保持するラベル領域同士が3次元空間でも
隣接関係を持つとみなし、それらを併合した時系列シル
エット画像O(ゴシック体)を作成する。具体的には、
まず画像生成部35は領域移動量格納部32に格納され
ているΔXit、ΔYitをもとに、時刻tから時刻(
t+1)にかけてのラベル領域iとjの正規化した相対
移動量を計算する。
The image generation section 35 stores the area movement amount storage section 32.
With reference to the area adjacency relationship storage unit 34, it is determined that label areas that have a small relative movement between areas at all times and maintain a two-dimensional adjacency relationship with a high probability also have an adjacency relationship in the three-dimensional space. A time-series silhouette image O (Gothic font) is created by merging them. in particular,
First, the image generation unit 35 calculates from time t to time (
t+1), the normalized relative movement amount of label areas i and j is calculated.

【0047】[0047]

【数3】[Math 3]

【0048】この正規化相対移動量ΔDt(i,j)と
、領域隣接関係格納部34に格納されている2次元隣接
関係Nt(i,j)を用いて、時刻tにおけるラベル領
域の隣接関係を次のように定義しなおす。   N’t(i,j)=1  (ΔDt(i,j)<α
tかつNt(i,j)=1)            
        0  (上記の条件を満たさない場合
)ここで、αtはN’t(i,j)を設定するための閾
値であり、本実施例では0.0の値をとるものとする。 N’t(i,j)を用いて、ラベル領域の3次元空間の
隣接関係Ξ(i,j)を決定する。Ξ(i,j)は、下
記の数式を満たすi、jに関して1(接続)となり、そ
れ以外は0(未接続)の値をとる。
Using this normalized relative movement amount ΔDt (i, j) and the two-dimensional adjacency relationship Nt (i, j) stored in the area adjacency relationship storage unit 34, the adjacency relationship of the label areas at time t is calculated. Redefine as follows. N't(i,j)=1 (ΔDt(i,j)<α
t and Nt(i,j)=1)
0 (When the above conditions are not satisfied) Here, αt is a threshold value for setting N't(i, j), and in this embodiment, it takes a value of 0.0. Using N't(i,j), the adjacency relationship Ξ(i,j) in the three-dimensional space of the label region is determined. Ξ(i,j) takes a value of 1 (connected) for i and j that satisfy the following formula, and otherwise takes a value of 0 (unconnected).

【0049】[0049]

【数4】[Math 4]

【0050】左辺は、F(ゴシック体)中で領域iとj
が隣接関係をもったフレームの出現確率で、右辺のβは
Ξ(i,j)を設定するための出現確率の閾値であり、
本実施例では0.9の値をとるものとする。Ξ(i,j
)に従い、画像生成部35はF(ゴシック体)中の各フ
レーム画像において、ラベル領域iとjに挟まれる輪郭
線をラベルiまたはjで塗りつぶし、iとjを併合する
。そののち背景とラベルで塗りつぶされていない輪郭線
部分を画素値0に、ラベル領域をすべて画素値1に変換
し、時系列シルエット画像O(ゴシック体)を作成する
(図3の(b)参照)。
[0050] The left side is the area i and j in F (Gothic).
is the appearance probability of frames with an adjacency relationship, and β on the right side is the appearance probability threshold for setting Ξ (i, j),
In this embodiment, the value is assumed to be 0.9. Ξ(i,j
), the image generation unit 35 fills in the outline between label areas i and j with label i or j in each frame image in F (Gothic), and merges i and j. After that, the background and the contour parts that are not filled with labels are converted to pixel values of 0, and all label areas are converted to pixel values of 1, creating a time-series silhouette image O (Gothic font) (see (b) in Figure 3). ).

【0051】モデル生成部4は、時系列シルエット画像
O(ゴシック体)を入力として対象のモデルを生成する
。O(ゴシック体)はシルエット画像格納部40に入力
され、格納される。細線化部41は、シルエット画像格
納部40を参照して、O(ゴシック体)の各フレーム画
像O(t)に細線化処理を施した細線化画像C0(t)
を生成する。細線化処理とは、O(t)中の画素値1の
領域形状を周囲から削り、形状の幅1の中心線を抽出す
る処理である。C0(t)は、細線化された領域形状(
中心線)の画素値を1とし、その以外の画素値を0であ
る画像とする。距離変換部42は、この細線化画像C0
(t)上の画素値1の点と同じ座標値を持つO(t)上
の点の距離変換値を求め、この距離変換値を同じ座標の
画素値とする細線化距離変換画像C(t)を作成する。 O(t)上の任意の座標の距離変換値は、背景(画素値
0)とその座標値の点との間の最短距離値で定義され、
背景の距離変換値は0、領域輪郭上の点は1の値をとり
、領域内部の点程大きい値となる。そのためC(t)は
、画素値が非0の点の座標が、対象のシルエット形状の
中心線座標を表わし(図3の(c)参照)、その点の画
素値が形状の太さを表わす画像となる。
The model generation unit 4 generates a target model by inputting the time-series silhouette images O (Gothic font). O (Gothic font) is input to the silhouette image storage section 40 and stored. The thinning unit 41 refers to the silhouette image storage unit 40 and performs thinning processing on each frame image O(t) of O (Gothic font) to create a thinned image C0(t).
generate. The thinning process is a process of removing the shape of a region with a pixel value of 1 in O(t) from the periphery and extracting the center line of the shape with a width of 1. C0(t) is the thinned region shape (
The pixel value of the center line) is set to 1, and the other pixel values are set to 0. The distance converter 42 converts this thinned image C0
Find the distance conversion value of a point on O(t) that has the same coordinate value as the point with pixel value 1 on (t), and use this distance conversion value as the pixel value of the same coordinate in the thinned distance conversion image C(t ). The distance conversion value of any coordinate on O(t) is defined as the shortest distance value between the background (pixel value 0) and the point with that coordinate value,
The distance conversion value of the background takes a value of 0, the value of a point on the area outline takes a value of 1, and the value becomes larger for a point inside the area. Therefore, in C(t), the coordinates of a point with a non-zero pixel value represent the center line coordinates of the target silhouette shape (see (c) in Figure 3), and the pixel value of that point represents the thickness of the shape. It becomes an image.

【0052】特徴点抽出部43は、C(t)を参照して
、各時刻毎に特徴点を決定する。特徴点抽出部43は、
まず、C(t)の非0の点の連結の状態を、その点の交
差数で判別して特徴点候補を選出する。任意の点の交差
数とは、その点の8近傍を1周とするとき、背景(画素
値=0)から領域内(画素値≠0)に遷移する回数であ
る。特徴点候補として、C(t)上で交差数が1の点(
端点)、3の点(分岐点)、4の点(交差点)をとる。 特徴点抽出部43は、次に、C(t)の非0の点の画素
値(距離変換値)をもとに、既に交差数で判別して選出
された特徴点候補により挟まれた線分区間で、画素値最
大となる点を特徴点候補として追加する(ただし、画素
値最大となる点が既に特徴点候補となっている場合は追
加しない)。特徴点の決定は、特徴点候補の座標値とそ
れらの間のC(t)上での接続関係を抽出し、接続関係
にある特徴点候補を併合することで行う。2つの特徴点
候補が接続関係にあるとは、C(t)上の非0の点によ
る2つの特徴点候補間を結ぶ経路が存在し、その経路上
に他の特徴点候補が存在しないことを意味する。次の数
5を、隣接する特徴点候補が満たすとき、距離変換値の
小さい特徴点候補を、距離変換値の大きい特徴点候補に
併合する。
The feature point extraction unit 43 refers to C(t) and determines feature points at each time. The feature point extraction unit 43
First, the state of connection of non-zero points of C(t) is determined by the number of intersections of the points, and feature point candidates are selected. The number of intersections of an arbitrary point is the number of times it transitions from the background (pixel value=0) to inside the area (pixel value≠0) when 8 neighborhoods of that point are considered as one round. As a feature point candidate, a point with the number of intersections of 1 on C(t) (
(end point), point 3 (branch point), and point 4 (intersection). Next, the feature point extraction unit 43 extracts a line between the feature point candidates selected by determining the number of intersections based on the pixel value (distance conversion value) of the non-zero point of C(t). Add the point with the maximum pixel value as a feature point candidate in the minute interval (however, if the point with the maximum pixel value is already a feature point candidate, it will not be added). The feature points are determined by extracting the coordinate values of the feature point candidates and the connection relationships between them on C(t), and merging the feature point candidates in the connection relationships. Two minutiae candidates are in a connected relationship if there is a path connecting the two minutiae candidates using non-zero points on C(t), and there are no other minutiae candidates on that path. means. When adjacent feature point candidates satisfy the following equation 5, the feature point candidate with a small distance conversion value is merged with the feature point candidate with a large distance conversion value.

【0053】[0053]

【数5】[Math 5]

【0054】ただし、b1とb2はそれぞれ、隣接する
特徴点候補の距離変換値の大きい方の値と小さい方の値
である。併合可能な特徴点候補がなくなったとき、残っ
ている特徴点候補の時刻tの対象の特徴点として確定し
てラベルpt(pt=1,・・・Pt)を付加し、特徴
点座標(Xf[pt],Yf[pt])と接続関係Jt
(pt,p’t)を抽出する。
However, b1 and b2 are the larger value and the smaller value of the distance conversion values of adjacent feature point candidates, respectively. When there are no more feature point candidates that can be merged, the remaining feature point candidates are determined as target feature points at time t, labels pt (pt=1,...Pt) are added, and the feature point coordinates (Xf [pt], Yf[pt]) and connection relation Jt
Extract (pt, p't).

【0055】   Jt(pt,p’t)=0  (pt=P’t) 
                       1 
 (pt,p’t間に接続関係がある時)      
                  0  (pt,
p’t間に接続関係がない時)ただし、この接続関係の
抽出時において、他の特徴点に併合された特徴点候補は
、それが併合された特徴点と同じラベルを持つものとみ
なす。これにより、特徴点候補の併合による新たな接続
関係の生成を避けることができる。
Jt(pt, p't)=0 (pt=P't)
1
(When there is a connection between pt and p't)
0 (pt,
(When there is no connection relationship between p't) However, at the time of extracting this connection relationship, a feature point candidate that has been merged with another feature point is considered to have the same label as the feature point to which it has been merged. This makes it possible to avoid generating new connection relationships by merging feature point candidates.

【0056】全時刻において、特徴点の座標値、接続関
係を抽出した後、特徴点対応処理部44は時刻tと(t
+1)の2フレーム間で特徴点の対応付けを行う。特徴
点の対応付けを行うために、まず時刻tの特徴点が時刻
(t+1)でどこに移動するかを、特徴点が存在するF
(t)中のラベル領域の移動量をもとに推定し、座標値
を補正する。F(t)中のラベル領域の移動量は、領域
移動量格納部32に格納されている。これにより、補正
後の特徴点ptの座標値(Xm’[pt],Ym’[p
t])は次のように表わされる。
After extracting the coordinate values and connection relationships of the feature points at all times, the feature point correspondence processing unit 44 extracts the coordinate values and connection relationships of the feature points at times t and (t
+1) The feature points are associated between the two frames. In order to associate feature points, first find out where the feature point at time t will move at time (t+1) using F where the feature point exists.
The coordinate values are estimated based on the amount of movement of the label area in (t) and corrected. The amount of movement of the label area in F(t) is stored in the area movement amount storage section 32. As a result, the coordinate values of the feature point pt after correction (Xm'[pt], Ym'[p
t]) is expressed as follows.

【0057】 Xm’[pt]=Xf[pt]+ΔXitYm’[pt
]=Yf[pt]+ΔYitただし、iはラベル画像F
(t)上の座標値(Xf[pt],Yf[pt])の点
を含むラベル領域のラベルの値である。次に、この補正
値と時刻(t+1)の特徴点p(t+1)(p(t+1
)=1,・・・P(t+1))間のユークリッド距離が
最短となるもの同士を1対1に対応づける。この対応結
果は、対応するptとp(t+1)の順序対(pt,p
(t+1))の集合Гtとして特徴点対応格納部45に
格納する。
Xm'[pt]=Xf[pt]+ΔXitYm'[pt
]=Yf[pt]+ΔYit, where i is the label image F
(t) This is the value of the label of the label area including the point with the coordinate values (Xf[pt], Yf[pt]) on the top. Next, this correction value and the feature point p(t+1) at time (t+1) (p(t+1
)=1, . . . P(t+1)) with the shortest Euclidean distance are associated on a one-to-one basis. This correspondence result is the ordered pair (pt, p
(t+1)) is stored in the feature point correspondence storage unit 45 as a set Гt.

【0058】Гt={(pt,p(t+1)|ptは、
時刻(t+1)の特徴点p(t+1)に1対1に対応す
る時刻tの特徴点} 構造点抽出部46は、時系列中で対応関係にある特徴点
に対して全ての時刻中で固有のラベル付けを行う。t=
1の特徴点については、全てに固有のラベルを付加する
。t≠1のときは、特徴点対応格納部45に格納されて
いるГtを参照し、(t−1)の時刻中に対応する特徴
点が存在するときはその対応する特徴点と同じラベルを
付加し、存在しないときは未使用のラベルを新たに付加
する。この結果、特徴点は全時刻を通じて固有のラベル
ρが付加される。そして、付加されたラベルρにあわせ
て、接続関係Jt(pt,p’t)はJ’t(ρ1、ρ
2)に書き換えられる。
Гt={(pt, p(t+1)|pt is
The feature point at time t that corresponds one-to-one to the feature point p(t+1) at time (t+1)} The structure point extracting unit 46 extracts a unique feature point at all times for feature points that have a corresponding relationship in the time series. Label. t=
A unique label is added to each feature point. When t≠1, refer to Гt stored in the feature point correspondence storage unit 45, and if a corresponding feature point exists during time (t-1), use the same label as the corresponding feature point. If the label does not exist, a new unused label is added. As a result, a unique label ρ is added to the feature point at all times. Then, according to the added label ρ, the connection relation Jt(pt, p't) is changed to J't(ρ1, ρ
2) can be rewritten.

【0059】 J’t(ρ1、ρ2)=Jt(pt,p’t)ただし、
ρ1、ρ2はpt,p’tに対して新たに付加されたラ
ベルである。次に、構造点抽出部46は、各ラベルρ毎
の全フレーム中の出現頻度を抽出し、次の条件を判定す
る。[全時系列中でのρの出現頻度]/T≧Φ・・・・
・・・・・・・・・■この条件式を満たす特徴点ρを時
系列中で対象の構造を表わす代表点とみなし、構造点ω
として登録する。ここで、左辺はρの出現確率で、φは
ωを設定するうえでの閾値であり、登録の結果はωの集
合Ωで表わす。
J't(ρ1, ρ2)=Jt(pt, p't) However,
ρ1 and ρ2 are labels newly added to pt and p't. Next, the structure point extraction unit 46 extracts the frequency of appearance in all frames for each label ρ, and determines the following condition. [Frequency of appearance of ρ in all time series]/T≧Φ・・・・
・・・・・・・・・■The feature point ρ that satisfies this conditional expression is regarded as a representative point representing the target structure in the time series, and the structural point ω
Register as. Here, the left side is the appearance probability of ρ, φ is a threshold value for setting ω, and the registration result is expressed as a set Ω of ω.

【0060】Ω={ω|ω=[■を満たす特徴点ρ]}
また、各時刻における構造点の座標値(Xst[ω],
Yst[ω])を抽出する。これらの構造点の接続関係
G(ω1,ω2)は、各時刻における接続関係J’t(
ρ1,ρ2)を基にして次式の数6で決定する。
Ω={ω|ω=[Feature point ρ that satisfies ■]}
Also, the coordinate values of the structure point at each time (Xst[ω],
Yst[ω]) is extracted. The connection relationship G(ω1, ω2) of these structural points is the connection relationship J't(
ρ1, ρ2) based on Equation 6 below.

【0061】[0061]

【数6】[Math 6]

【0062】ここで、ρ1、ρ2は構造点ω1、ω2に
対応する特徴点ラベルであり、ξはG(ω1、ω2)を
定めるうえでの閾値であり、本実施例でξ=φ=0.9
の値をとるものとする。構造点抽出部46は、以上の構
造点ωの各時刻における座標値(Xst[ω],Yst
[ω])と、接続関係G(ω1,ω2)を、時系列画像
中の対象のモデルの構造として出力する。
Here, ρ1 and ρ2 are feature point labels corresponding to the structural points ω1 and ω2, and ξ is a threshold value for determining G(ω1, ω2), and in this example, ξ=φ=0 .9
shall take the value of . The structure point extraction unit 46 extracts the coordinate values (Xst[ω], Yst
[ω]) and the connection relationship G(ω1, ω2) are output as the structure of the target model in the time-series images.

【0063】モデル画像生成部5は、モデル生成部4の
構造点抽出部46より(Xst[ω],Yst[ω])
とG(ω1,ω2)を入力し、時系列モデル画像M(ゴ
シック体)を作成する。時刻tにおけるモデル画像M(
t)は、構造点ωを座標値(Xst[ω],Yst[ω
])の点で表わし、構造点ω1、ω2間の接続関係を(
Xst[ω1],Yst[ω1])と(Xst[ω2]
,Yst[ω2])間に描かれた直線で表わした画像で
ある(図3の(d)参照)。本実施例はこの時系列モデ
ル画像M(ゴシック体)を出力したのち処理を終了する
The model image generation unit 5 obtains (Xst[ω], Yst[ω]) from the structure point extraction unit 46 of the model generation unit 4.
and G (ω1, ω2) are input, and a time-series model image M (Gothic font) is created. Model image M(
t) is the coordinate value (Xst[ω], Yst[ω]
]), and the connection relationship between the structural points ω1 and ω2 is expressed as (
Xst[ω1], Yst[ω1]) and (Xst[ω2]
, Yst[ω2]) (see (d) in FIG. 3). In this embodiment, the process ends after outputting this time-series model image M (Gothic font).

【0064】[0064]

【発明の効果】以上説明したように、本発明によれば、
時系列画像から移動量が所定閾値以下のものをまとめた
シルエット画像について、細線化、特徴点抽出をしてこ
れら特徴点を結んで時系列モデルを生成する構成を採用
しているため、剛体、非剛体に依存することなく、複数
の時系列画像から自動的に時系列モデルを生成すること
ができる。また、モデルを生成するために抽出する情報
として、画像から自動的に抽出可能な特徴点を用いたた
め、従来のように人が関節点を画像上で指定する必要が
なくなり、モデルの自動生成を行うことが可能となる。
[Effects of the Invention] As explained above, according to the present invention,
Silhouette images that are a collection of time-series images whose movement amount is less than a predetermined threshold are thinned, feature points are extracted, and these feature points are connected to generate a time-series model. A time series model can be automatically generated from multiple time series images without relying on non-rigid objects. In addition, as the information extracted to generate the model uses feature points that can be automatically extracted from the image, there is no need for people to specify joint points on the image as in the past, and automatic model generation is possible. It becomes possible to do so.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の原理構成図である。FIG. 1 is a diagram showing the principle configuration of the present invention.

【図2】本発明の動作説明フローチャートである。FIG. 2 is a flowchart explaining the operation of the present invention.

【図3】本発明の具体例説明図である。FIG. 3 is a diagram illustrating a specific example of the present invention.

【図4】本発明の1実施例構成図である。FIG. 4 is a configuration diagram of one embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1:時系列ラベル画像 2:フレーム間領域対応部 3:シルエット画像生成部 31:領域移動量抽出部 33:領域隣接関係抽出部 35:画像生成部 4:モデル生成部 41:細線化部 42:距離変換部 43:特徴点抽出部 44:特徴点対応処理部 46:構造点抽出部 5:モデル画像生成部 1: Time series label image 2: Inter-frame area correspondence part 3: Silhouette image generation section 31: Area movement amount extraction part 33: Region adjacency relationship extraction part 35: Image generation section 4: Model generation section 41: Thinning part 42: Distance conversion section 43: Feature point extraction section 44: Feature point correspondence processing unit 46: Structure point extraction part 5: Model image generation section

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】  時系列画像からモデルを作成する作成
装置において、領域にラベル付けした時系列ラベル画像
(1)を入力とし、各時刻におけるラベル領域の移動量
が閾値以下のものをまとめたシルエット画像を生成する
シルエット画像生成部(3)と、この生成されたシルエ
ット画像について、細線化および特徴点抽出し、フレー
ム間で対応する特徴点の出現率が閾値以上のもの構造点
とするモデル生成部(4)とを備え、これらの構造点を
線分で結んだ時系列モデル画像を出力するように構成し
たことを特徴とする時系列画像からのモデル作成装置。
Claim 1: In a creation device that creates a model from time-series images, a time-series label image (1) in which areas are labeled is input, and a silhouette is created that summarizes the movement amount of the labeled area at each time is less than a threshold value. A silhouette image generation unit (3) that generates an image, and a model generation unit that thins the generated silhouette image, extracts feature points, and considers the appearance rate of the corresponding feature point between frames as a structural point to be a structural point. 1. A model creation device from time-series images, comprising: (4) and configured to output a time-series model image in which these structural points are connected by line segments.
【請求項2】  上記シルエット画像生成部(3)が、
領域にラベル付けした時系列ラベル画像(1)を入力と
し、各時刻におけるラベル領域の移動量とラベル領域間
の隣接関係をもとに各時刻におけるラベル領域の移動量
が閾値以下のものをまとめて対象の3次元空間中の構造
を反映したシルエット画像を生成するように構成したこ
とを特徴とする請求項第1項記載の時系列画像からのモ
デル作成装置。
Claim 2: The silhouette image generation unit (3) comprises:
As input is a time-series label image (1) in which areas are labeled, and based on the amount of movement of the label area at each time and the adjacency relationship between the label areas, we summarize the items whose movement amount of the label area at each time is less than a threshold value. 2. The model creation device from time-series images according to claim 1, wherein the device is configured to generate a silhouette image reflecting the structure of the object in three-dimensional space.
【請求項3】  上記シルエット画像を細線化した細線
化画像を作成し、この細線化画像上の各画素とシルエッ
ト画像までの最短距離を画素値として付与した画像を生
成し、この生成した画像の交差数と画素値とから特徴点
候補を抽出し、これら特徴点候補間の距離と各画素値と
をもとに特徴点候補を併合して上記特徴点とするように
構成したことを特徴とする請求項第1項記載の時系列画
像からのモデル作成装置。
3. Create a thin line image by thinning the silhouette image, generate an image in which the shortest distance between each pixel on the thin line image and the silhouette image is assigned as a pixel value, and Feature point candidates are extracted from the number of intersections and pixel values, and the feature point candidates are merged to form the feature point based on the distance between these feature point candidates and each pixel value. A model creation device from time-series images according to claim 1.
【請求項4】  時刻tの上記特徴点の座標をこれが存
在する時系列ラベル上のラベル領域の移動量により補正
した後の座標と、時刻(t+1)の特徴点の座標とが最
短のものを2つのフレーム間の対応する特徴点とするよ
うに構成したことを特徴とする請求項第1項記載の時系
列画像からのモデル作成装置。
4. The coordinates of the feature point at time t corrected by the amount of movement of the label area on the time-series label where the feature point exists are the closest to the coordinates of the feature point at time (t+1). 2. The model creation device from time-series images according to claim 1, wherein the model creation device is configured to create corresponding feature points between two frames.
【請求項5】  2つのフレーム間で対応する特徴点を
もとに全時系列中での特徴点の対応関係を求め、対応す
る特徴点の時系列中の出現確率が閾値以上のものを構造
点とするように構成したことを特徴とする請求項第1項
記載の時系列画象からのモデル作成装置。
5. The correspondence between feature points in the entire time series is determined based on the feature points corresponding between two frames, and the probability of appearance of the corresponding feature point in the time series is greater than or equal to a threshold is structured. 2. The model creation device from time-series images according to claim 1, wherein the model creation device is configured to form a point.
JP3020244A 1991-02-14 1991-02-14 Model generator from time series image Withdrawn JPH04259075A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3020244A JPH04259075A (en) 1991-02-14 1991-02-14 Model generator from time series image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3020244A JPH04259075A (en) 1991-02-14 1991-02-14 Model generator from time series image

Publications (1)

Publication Number Publication Date
JPH04259075A true JPH04259075A (en) 1992-09-14

Family

ID=12021783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3020244A Withdrawn JPH04259075A (en) 1991-02-14 1991-02-14 Model generator from time series image

Country Status (1)

Country Link
JP (1) JPH04259075A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309795A (en) * 2004-04-22 2005-11-04 Japan Fisheries Information Service Center Same object determination device, same object determination method, computer-readable recording medium to which program is recorded, and program
JP2006185038A (en) * 2004-12-27 2006-07-13 Ge Medical Systems Global Technology Co Llc Four- or n-dimensional labeling apparatus, and four- or n-dimensional spatial filter apparatus
JP2008500640A (en) * 2004-05-27 2008-01-10 シーメンス コーポレイト リサーチ インコーポレイテツド Graphical object model for detection and tracking
JP2012522312A (en) * 2009-03-30 2012-09-20 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション System and method for identifying biological material

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309795A (en) * 2004-04-22 2005-11-04 Japan Fisheries Information Service Center Same object determination device, same object determination method, computer-readable recording medium to which program is recorded, and program
JP4532972B2 (en) * 2004-04-22 2010-08-25 社団法人漁業情報サービスセンター Same target judging device, same target judging method and program
JP2008500640A (en) * 2004-05-27 2008-01-10 シーメンス コーポレイト リサーチ インコーポレイテツド Graphical object model for detection and tracking
JP4886678B2 (en) * 2004-05-27 2012-02-29 シーメンス コーポレーション Graph object model for detection and tracking
JP2006185038A (en) * 2004-12-27 2006-07-13 Ge Medical Systems Global Technology Co Llc Four- or n-dimensional labeling apparatus, and four- or n-dimensional spatial filter apparatus
JP2012522312A (en) * 2009-03-30 2012-09-20 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション System and method for identifying biological material

Similar Documents

Publication Publication Date Title
Xue et al. Learning attraction field representation for robust line segment detection
Oliveira et al. dhSegment: A generic deep-learning approach for document segmentation
CN107808131B (en) Dynamic gesture recognition method based on dual-channel deep convolutional neural network
KR100415266B1 (en) Object region information description method, object region information generating device and recording medium
CN111160164B (en) Action Recognition Method Based on Human Skeleton and Image Fusion
CN112131908A (en) Action identification method and device based on double-flow network, storage medium and equipment
Kim et al. Skeleton-based action recognition of people handling objects
CN112101262B (en) Multi-feature fusion sign language recognition method and network model
CN111695523B (en) Double-flow convolutional neural network action recognition method based on skeleton space-time and dynamic information
CN113989928B (en) Motion capturing and redirecting method
CN114613013A (en) End-to-end human behavior recognition method and model based on skeleton nodes
CN109670401B (en) Action recognition method based on skeletal motion diagram
Lu et al. Coherent parametric contours for interactive video object segmentation
JP6670698B2 (en) Image recognition model learning device, image recognition device, method, and program
CN115797851A (en) Animation video processing method and system
CN115063768A (en) Three-dimensional target detection method, encoder and decoder
Yamazaki et al. Open-fusion: Real-time open-vocabulary 3d mapping and queryable scene representation
Haque et al. Joint semantic and motion segmentation for dynamic scenes using deep convolutional networks
CN110569711B (en) Human body action oriented recognition method
JPH04259075A (en) Model generator from time series image
CN111274901B (en) Gesture depth image continuous detection method based on depth gating recursion unit
JP2003109013A (en) Method for processing spatio-temporal area information
Kumar Motion trajectory based human face and hands tracking for sign language recognition
Shen et al. ImLiDAR: cross-sensor dynamic message propagation network for 3D object detection
CN111179281A (en) Human body image extraction method and human body action video extraction method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19980514