JP3208879B2 - MOVING IMAGE ANALYZING APPARATUS AND METHOD, AND MOVING IMAGE SYNTHESIS APPARATUS AND METHOD THEREOF - Google Patents

MOVING IMAGE ANALYZING APPARATUS AND METHOD, AND MOVING IMAGE SYNTHESIS APPARATUS AND METHOD THEREOF

Info

Publication number
JP3208879B2
JP3208879B2 JP35693892A JP35693892A JP3208879B2 JP 3208879 B2 JP3208879 B2 JP 3208879B2 JP 35693892 A JP35693892 A JP 35693892A JP 35693892 A JP35693892 A JP 35693892A JP 3208879 B2 JP3208879 B2 JP 3208879B2
Authority
JP
Japan
Prior art keywords
function
position information
image
moving image
curved surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP35693892A
Other languages
Japanese (ja)
Other versions
JPH06197325A (en
Inventor
雅博 藤田
仁 佐藤
博 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP35693892A priority Critical patent/JP3208879B2/en
Publication of JPH06197325A publication Critical patent/JPH06197325A/en
Priority to US08/426,921 priority patent/US6195461B1/en
Priority to US08/723,371 priority patent/US6009200A/en
Application granted granted Critical
Publication of JP3208879B2 publication Critical patent/JP3208879B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は画像記録、通信などの分
野で利用される動画像分析装置およびその方法ならびに
動画像合成装置およびその方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture analyzing apparatus used in the fields of image recording, communication and the like, and a method thereof.
The present invention relates to a moving image synthesizing apparatus and a method thereof .

【0002】[0002]

【従来の技術】近年、画像信号等の分析合成の手法とし
て、例えば画像信号における物体と背景の境界といった
信号のエッジに注目し、信号のエッジにおける情報から
元の信号を合成する方法が報告されている。例えば、J
acques FromentとStephane M
alletによるSecond generation
compact image coding wit
h wavelet.(Wavelets−Tutor
ial in Theory and Applica
tions,II:655〜678,1991)(参考文
献1)に開示される信号分析と合成方法が上記の方法の
一つであり、この方法について以下に説明する。
2. Description of the Related Art In recent years, as a method of analyzing and synthesizing an image signal or the like, a method has been reported which focuses on a signal edge such as a boundary between an object and a background in the image signal and synthesizes an original signal from information at the signal edge. ing. For example, J
acques Fromment and Stephane M
Second generation by allet
compact image coding wit
h wavelet. (Wavelets-Tutor
ial in Theory and Applica
tions, II: 655-678, 1991) (Reference Document 1) is one of the above-mentioned methods, and this method will be described below.

【0003】図15は、一次元的な信号f(x)を示す
図である。まず、図15(A)、(B)に示すような、
一次元的な信号f(x)を想定する。この例では、最初
に信号f(x)の多重解像度法を用いた分析を行う。こ
こで、多重解像度法とは、複数の異なる解像度を有する
フィルターを使用して信号の分析を行う方法をいう。こ
の多重解像度法を用いた分析に用いる分析フィルターの
特性を関数φa (x)で表す。関数φa (x)は周波数
領域ωでは次式で表される。
FIG. 15 is a diagram showing a one-dimensional signal f (x). First, as shown in FIGS. 15A and 15B,
Assume a one-dimensional signal f (x). In this example, the signal f (x) is first analyzed using the multi-resolution method. Here, the multi-resolution method refers to a method of analyzing a signal using a plurality of filters having different resolutions. The characteristic of the analysis filter used for the analysis using the multi-resolution method is represented by a function φ a (x). The function φ a (x) is expressed by the following equation in the frequency domain ω.

【数1】 (Equation 1)

【0004】ただし、関数φa (x)のaは多重解像度
におけるスケールを表す。また、式1中のiは虚数を表
す。また、^は、この記号を付したその関数のフーリエ
変換を表す(以下同じ)。これは、同じく周波数領域ω
で次式で表される関数の元の領域xでの関数θ(x)の
微分結果である。
Here, a of the function φ a (x) represents a scale at multiple resolution. Also, i in Equation 1 represents an imaginary number. ^ represents the Fourier transform of the function with this symbol (the same applies hereinafter). This is also in the frequency domain ω
Is a differential result of the function θ (x) in the original region x of the function represented by the following equation.

【数2】 (Equation 2)

【0005】このフィルターφa (x)と信号f(x)
を畳み込んだ結果を関数Wa f(x)と表す。参考文献
1ではこの振幅|Wa f(x)|の極大値を与える位置
an )(ただしnは自然数)のフィルター出力Wa
f( an )だけを用いて元の信号を近似できることを
示した。極大値からの復元の説明の前に、Wa f(x)
から元の信号f(x)を復元することに関して説明す
る。
The filter φ a (x) and the signal f (x)
Is expressed as a function Waf (x). The amplitude in the reference 1 | W a f (x) | of the filter output W a position which gives the maximum value (a x n) (where n is a natural number)
It showed to be able to approximate the original signal using only f (a x n). Before describing the restoration from the maximum value, W a f (x)
From the original signal f (x).

【0006】ここで述べる方法はウェーブレットと呼ば
れるものであり、近年盛んに研究されている方法であ
る。分析関数が次式で表される場合、
The method described here is called a wavelet and is a method that has been actively studied in recent years. If the analytic function is

【数3】 合成に用いるフィルターφj * (x)は、次式で表され
る。
(Equation 3) The filter φ j * (x) used for the synthesis is represented by the following equation.

【数4】 (Equation 4)

【0007】ここで、関数の上に付した線は複素共役を
表す。また、スケールaに関してはa=2j となるよう
に選んでいる。ただし、j=j1 ,...,jJ を用い
ている。ここで、分析合成に関してまとめると元の信号
をfo (x)とすると、
Here, the line on the function represents the complex conjugate. The scale a is selected so that a = 2 j . Where j = j1,. . . , JJ. Here, assuming that the original signal is f o (x) in terms of analysis and synthesis,

【数5】 (Equation 5)

【数6】 として、(Equation 6) As

【数7】 ただし、j= j1,... ,jJ 、が分析され、(Equation 7) Where j = j1,. . . , JJ are analyzed,

【数8】 (Equation 8)

【数9】 で合成される。このようにして、Wj f(x)とs(jJ)
(x)から元の信号fo (x)を復元することができ
る。
(Equation 9) Synthesized by Thus, W j f (x) and s (jJ)
The original signal f o (x) can be restored from (x).

【0008】したがって、先に述べたWj f(xn )か
ら‘Wj f(x)を補関することによりW jf(x)を
近似し上述した逆変換でfの近似を得ることができる。
補関する方法は、補関して得られた関数をWj f(x)
とすると、
Accordingly, it is possible to obtain an approximation of f in inverse transform that approximates the W j f (x) by regarding complement the previously mentioned W j f (x n) from the 'W j f (x) described above it can.
The method of complementation is to convert the function obtained by complementation into W j f (x).
Then

【数10】 という関数を(Equation 10) Function

【数11】 という形のものとして、2点 jn j(n+1) を通る
ことを用いて、
[Equation 11] By passing through two points j x n and j x (n + 1)

【数12】 (Equation 12)

【数13】 より上式のα, βを求め、これらを式11に代入し、そ
れを補間関数に加えることにより補関関数を更新する。
(Equation 13) Further, α and β in the above equations are obtained, these are substituted into Equation 11, and the interpolation function is added to the interpolation function to update the interpolation function.

【0009】これを、式8を用いて信号f(x)の推定
値f' (x)を求め、再び式7を用いてそれをWj
(x)として再定義する。これを繰り返すことによりf
' (x)を更新してf(x)を復元していく。最後に、
式9を用いて、fo (x)を得る。
[0009] This obtains an estimate f of the signal f (x) '(x) using equation 8, it W j f using Equation 7 again
(X). By repeating this, f
' Update (x) and restore f (x). Finally,
Using equation 9, f o (x) is obtained.

【0010】[0010]

【発明が解決しようとする課題】以上述べた画像圧縮の
方法の他にも、画像圧縮の方法は数多く考えられている
が、画質および圧縮率をさらに高めなければならないと
いう要請がある。この要請に応えるべく、2次元画像に
関しては視覚特性が輝度の急変するエッジに対して敏感
であることを考慮してその部分を忠実に再現する試みが
報告されている。
In addition to the image compression method described above, many image compression methods have been considered, but there is a demand that the image quality and the compression ratio must be further improved. In order to meet this demand, attempts have been reported to faithfully reproduce a two-dimensional image in consideration of the fact that the visual characteristics are sensitive to sharply changing edges.

【0011】また、動画像においては、空間2次元信号
を時間方向に並べることにより3次元時空間画像として
見なすことができる。人間の視覚特性はこの時空間画像
に対して通常の空間方向のエッジ検出と平行して時間方
向へ動き検出も行なっている。
In a moving image, two-dimensional spatial signals can be regarded as a three-dimensional spatio-temporal image by arranging them in the time direction. The human visual characteristics also detect the motion in the time direction of the spatiotemporal image in parallel with the edge detection in the normal spatial direction.

【0012】特に動くエッジに対しては敏感な反応が視
覚情報処理をつかさどる神経細胞で観測されている。し
たがって、空間エッジ検出が視覚にとって重要であった
のと同様に動くエッジも重要であることが示唆される。
通常、動き検出を用いた画像圧縮は動き検出を何らかの
方法で行なって、それを用いて時間方向に予測を行な
い、その誤差の符号化を行う。しかし動画像に関しては
視覚特性が輝度の急変するエッジに対して敏感であるこ
とを考慮してその部分を忠実に再現する画像分析(圧
縮)およびその合成(再現)方法は、まだ報告がされて
いない。
In particular, a sensitive response to moving edges has been observed in nerve cells that control visual information processing. Thus, it is suggested that moving edges are important just as spatial edge detection was important to vision.
Normally, in image compression using motion detection, motion detection is performed by some method, prediction is performed in the time direction using the method, and the error is encoded. However, regarding a moving image, an image analysis (compression) method and a synthesis (reproduction) method for faithfully reproducing the visual characteristic in consideration of the fact that the visual characteristics are sensitive to an edge where luminance changes suddenly have not yet been reported. Absent.

【0013】本発明は以上に述べた技術的要請に応える
べく、動画像情報について、視覚特性が輝度の急変する
エッジに対して敏感であることを考慮してその部分を忠
実に再現する動画像分析と合成方法およびその装置を得
ることを目的としている。
According to the present invention, in order to meet the above-mentioned technical demands, a moving image that faithfully reproduces a portion of moving image information in consideration of the fact that the visual characteristic is sensitive to an edge whose luminance changes rapidly. The aim is to obtain an analysis and synthesis method and its device.

【0014】[0014]

【課題を解決するための手段】上記の目的を達成するた
め、本発明の第1の観点に係る動画像分析装置は、2次
元画像が時系列的に連続する動画像について、各2次元
画像の画像平面上における画像情報の位置的変化、およ
び時系列上における画像情報の時間的変化を分析し、当
該分析結果の特徴点を圧縮する動画像分析装置であっ
て、以下の手段を有する。
In order to achieve the above object, a moving picture analyzing apparatus according to a first aspect of the present invention provides a moving picture analyzing apparatus in which two-dimensional images are continuous in time series. This is a moving image analyzer that analyzes a positional change of image information on an image plane and a temporal change of image information on a time series, and compresses a feature point of the analysis result, and has the following means.

【0015】すなわち、上記画像平面上における2次元
位置および時間をパラメータとする第1のスムージング
関数を用いて、所定の解像度で原動画像の画像情報と畳
み込み演算を行い、上記動画像の低周波成分を算出し、
原動画像の画像情報から上記低周波成分を減じ、上記第
1のスムージング関数を上記2次元位置および時間につ
いてそれぞれ1回微分した3つの第2のスムージング関
数を用いて、複数の解像度で上記低周波成分が減ぜられ
た画像情報と畳み込み演算を行ない、多重解像度分析の
結果を算出する分析手段と、上記分析結果が極大または
極小となる特徴点を検出する特徴点検出手段と、上記検
出した特徴点の、上記2次元位置および時間で指定され
る3次元時空間上の位置情報を、孤立点の集合、線の集
合、または曲面の集合に分類し、上記線または上記曲面
に分類される特徴点の位置情報を、上記線または上記曲
面に対応して定義した所定の位置情報の関数に基づいて
圧縮する位置情報圧縮手段と、上記線または上記曲面に
分類される特徴点上の上記分析結果を、上記線または上
記曲面に対応して定義した所定の分析結果の関数に基づ
いて圧縮する分析結果圧縮手段と、上記孤立点に分類さ
れる特徴点の位置情報および分析結果、ならびに上記線
または曲面に分類される特徴点の上記圧縮した位置情報
および上記圧縮した分析結果を符号化する符号化手段と
を有する。
That is, using the first smoothing function having the two-dimensional position and time on the image plane as parameters, the convolution operation is performed with the image information of the original moving image at a predetermined resolution, and the low-frequency component of the moving image is obtained. Is calculated,
The low-frequency component is subtracted from the image information of the moving image, and the first smoothing function is differentiated once with respect to the two-dimensional position and time, respectively, by using three second smoothing functions. Analysis means for performing a convolution operation with the image information whose components have been reduced to calculate a result of the multi-resolution analysis; feature point detection means for detecting a feature point at which the analysis result is maximum or minimum; The position information of a point on the three-dimensional spatio-temporal specified by the two-dimensional position and time is classified into a set of isolated points, a set of lines, or a set of surfaces, and the feature classified as the line or the surface Position information compression means for compressing the position information of a point based on a function of predetermined position information defined corresponding to the line or the curved surface, and feature points classified as the line or the curved surface Analysis result compression means for compressing based on a function of a predetermined analysis result defined corresponding to the line or the curved surface, position information and analysis results of the feature points classified as the isolated points, And encoding means for encoding the compressed position information of the feature points classified as the line or the curved surface and the compressed analysis result.

【0016】本発明の第2の観点に係る動画像分析装置
によれば、上記分析装置において、上記画像平面上にお
ける2次元位置および時間をパラメータとする第1のス
ムージング関数が用いられて、所定の解像度で原動画像
の画像情報と畳み込み演算が行われ、上記動画像の低周
波成分が算出される。この算出された低周波成分は、原
動画像の画像情報から減ぜられる。また、上記第1のス
ムージング関数が上記2次元位置および時間についてそ
れぞれ1回微分された3つの第2のスムージング関数が
用いられて、複数の解像度で上記低周波成分が減ぜられ
た画像情報と畳み込み演算が行なわれる。これにより、
多重解像度分析の結果が算出される。
According to the moving image analyzer according to the second aspect of the present invention, in the analyzer, the first smoothing function using the two-dimensional position and the time on the image plane as parameters is used, and The convolution operation is performed with the image information of the original moving image at the resolution of, and the low frequency component of the moving image is calculated. The calculated low frequency component is subtracted from the image information of the driving image. Also, three second smoothing functions obtained by differentiating the first smoothing function once with respect to the two-dimensional position and time, respectively, are used to obtain image information in which the low-frequency component is reduced at a plurality of resolutions. A convolution operation is performed. This allows
The result of the multi-resolution analysis is calculated.

【0017】上記特徴点検出手段においては、上記分析
手段による多重解像度分析の分析結果が極大または極小
となる特徴点が検出される。
The feature point detecting means detects a feature point at which the analysis result of the multi-resolution analysis by the analyzing means becomes maximum or minimum.

【0018】上記位置情報圧縮手段においては、上記特
徴点検出手段において検出された特徴点の、上記2次元
位置および時間で指定される3次元時空間上の位置情報
が、孤立点の集合、線の集合、または曲面の集合に分類
される。そして、上記線または上記曲面に分類される特
徴点の位置情報が、上記線または上記曲面に対応して定
義された所定の位置情報の関数に基づいて圧縮される。
上記分析結果圧縮手段においては、上記線または上記曲
面に分類される特徴点上の上記分析結果が、上記線また
は上記曲面に対応して定義した所定の分析結果の関数に
基づいて圧縮される。
In the position information compressing means, the position information of the feature points detected by the feature point detecting means on the three-dimensional spatio-temporal space specified by the two-dimensional position and time is represented by a set of isolated points, a line, Or a set of curved surfaces. Then, the position information of the feature points classified into the line or the curved surface is compressed based on a function of predetermined position information defined corresponding to the line or the curved surface.
The analysis result compression means compresses the analysis result on the feature point classified as the line or the curved surface based on a function of a predetermined analysis result defined corresponding to the line or the curved surface.

【0019】上記符号化手段においては、上記孤立点に
分類される特徴点の位置情報および分析結果、ならびに
上記線または曲面に分類される特徴点の上記圧縮された
位置情報および上記圧縮された分析結果が符号化され
る。
In the encoding means, the position information and analysis result of the feature point classified as the isolated point, the compressed position information of the feature point classified as the line or the curved surface, and the compressed analysis result are obtained. The result is encoded.

【0020】なお、上記特徴点検出手段は、上記第1の
スムージング関数を上記2次元位置および時間について
それぞれ2回微分した3つの第2のスムージング関数を
用いて、複数の解像度で上記低周波成分が減ぜられた画
像情報と畳み込み演算を行い、当該畳み込み演算の結果
におけるゼロクロス点に基づいて特徴点を検出しても良
い。
The feature point detecting means uses the three second smoothing functions obtained by differentiating the first smoothing function twice with respect to the two-dimensional position and time, respectively, and uses the low-frequency component at a plurality of resolutions. The convolution operation may be performed with the image information in which is reduced, and the feature point may be detected based on the zero cross point in the result of the convolution operation.

【0021】あるいは、上記特徴点検出手段は、上記3
次元上記空間の各次元の上記分析結果の2乗和が極値を
与える点に基づいて特徴点を検出しても良い。
Alternatively, the feature point detecting means may include
The feature point may be detected based on a point at which the sum of squares of the analysis results of each dimension in the dimension gives an extreme value.

【0022】また、上記位置情報圧縮手段は、上記線に
対応する位置情報の関数を、上記線上の所定の始点から
の長さに対する各次元の位置情報の関数として、上記3
次元時空間のそれぞれの次元で定義しても良い。
Further, the position information compressing means converts the function of the position information corresponding to the line as a function of the position information of each dimension with respect to a length from a predetermined starting point on the line.
It may be defined in each dimension of the dimension space-time.

【0023】あるいは、上記位置情報圧縮手段は、上記
線に対応する位置情報の関数を、上記線上の所定の始点
からの長さに対する曲率の関数、および当該長さに対す
るねじれ率の関数として定義しても良い。
Alternatively, the position information compressing means defines a function of the position information corresponding to the line as a function of a curvature with respect to a length from a predetermined starting point on the line and a function of a torsion ratio with respect to the length. May be.

【0024】また、上記位置情報圧縮手段は、上記曲面
から、上記3次元上記空間において時間次元と上記画像
平面の第1の次元とがなす第1の平面からの距離が所定
の微小範囲に含まれる第1の曲面を分割し、当該分割後
の残りの曲面から、上記3次元空間において時間次元と
上記画像平面の第2の次元とがなす第2の平面からの距
離が所定の微小範囲に含まれる第2の曲面を分割し、当
該第1の曲面および第2の曲面の分割操作を、分割後の
残りの曲面に対して順次反復して、上記曲面を複数の上
記第1の曲面および複数の上記第2の曲面に分割し、上
記曲面に対応する位置情報の関数を、それぞれの上記第
1の曲面に対応した、上記第1の平面上の位置情報に対
する上記第1の平面からの距離の関数、および、それぞ
れの上記第2の曲面に対応した、上記第2の平面上の位
置情報に対する上記第2の平面からの距離の関数として
定義しても良い。
The position information compressing means may include a distance from the curved surface to a first plane defined by a time dimension and a first dimension of the image plane in the three-dimensional space within a predetermined minute range. The first curved surface to be divided is divided, and a distance from a second plane formed by a time dimension and a second dimension of the image plane in the three-dimensional space from the remaining curved surface after the division is within a predetermined minute range. The second surface included is divided, and the operation of dividing the first surface and the second surface is sequentially repeated for the remaining surfaces after the division, so that the surface is divided into a plurality of the first surfaces and the plurality of first surfaces. Dividing into a plurality of the second curved surfaces, the function of the position information corresponding to the curved surface is converted from the first plane with respect to the position information on the first plane corresponding to each of the first curved surfaces. Functions of distance and the respective second songs The corresponding, may be defined as a function of the distance from the second of said second plane relative to the position information on the plane.

【0025】あるいは、上記位置情報圧縮手段は、上記
曲面を上記画像平面で切断してできる各切断線について
定義される、当該切断線上の所定の始点からの距離に対
する曲率の関数を多重解像度分析し、当該分析結果の特
異点を検出し、上記検出された特異点から、隣接した上
記画像平面上の当該特異点間の距離が所定の範囲内に含
まれる特異点同士をつないでできる複数の曲線を抽出
し、上記曲面に対応する位置情報の関数を、上記抽出し
た複数の曲線上の所定の始点からの距離に対する曲率の
関数、および当該距離に対するねじれ率の関数として定
義しても良い。
Alternatively, the position information compressing means performs a multi-resolution analysis on a function of the curvature with respect to a distance from a predetermined starting point on the cutting line, which is defined for each cutting line formed by cutting the curved surface at the image plane. Detecting a singular point of the analysis result, and from the detected singular point, a plurality of curves formed by connecting singular points whose distances between adjacent singular points on the adjacent image plane are within a predetermined range. May be extracted, and the function of the position information corresponding to the curved surface may be defined as a function of a curvature with respect to a distance from a predetermined starting point on the plurality of extracted curves and a function of a torsion rate with respect to the distance.

【0026】本発明の第2の観点に係る動画像分析方法
は、2次元画像が時系列的に連続する動画像について、
各2次元画像の画像平面上における画像情報の位置的変
化、および時系列上における画像情報の時間的変化を分
析し、当該分析結果の特徴点を圧縮する動画像分析方法
であって、以下の処理を行なう。
According to a moving image analysis method according to a second aspect of the present invention, a moving image in which a two-dimensional image is continuous
A moving image analysis method for analyzing a positional change of image information on an image plane of each two-dimensional image and a temporal change of image information on a time series, and compressing characteristic points of the analysis result, comprising: Perform processing.

【0027】すなわち、上記画像平面上における2次元
位置および時間をパラメータとする第1のスムージング
関数を用いて、所定の解像度で原動画像の画像情報と畳
み込み演算を行い、上記動画像の低周波成分を算出し、
原動画像の画像情報から上記低周波成分を減じ、上記第
1のスムージング関数を上記2次元位置および時間につ
いてそれぞれ1回微分した3つの第2のスムージング関
数を用いて、複数の解像度で上記低周波成分が減ぜられ
た画像情報と畳み込み演算を行ない、多重解像度分析の
結果を算出し、上記分析結果が極大または極小となる特
徴点を検出し、上記検出した特徴点の、上記2次元位置
および時間で指定される3次元時空間上の位置情報を、
孤立点の集合、線の集合、または曲面の集合に分類し、
上記線または上記曲面に分類される特徴点の位置情報
を、上記線または上記曲面に対応して定義した所定の位
置情報の関数に基づいて圧縮し、上記線または上記曲面
に分類される特徴点上の上記分析結果を、上記線または
上記曲面に対応して定義した所定の分析結果の関数に基
づいて圧縮し、上記孤立点に分類される特徴点の位置情
報および分析結果、ならびに上記線または曲面に分類さ
れる特徴点の上記圧縮した位置情報および上記圧縮した
分析結果を符号化する。
That is, using the first smoothing function having the two-dimensional position and time on the image plane as parameters, the convolution operation is performed on the image information of the original moving image at a predetermined resolution, and the low-frequency component of the moving image is obtained. Is calculated,
The low-frequency component is subtracted from the image information of the moving image, and the first smoothing function is differentiated once with respect to the two-dimensional position and time, respectively, by using three second smoothing functions. A convolution operation is performed with the image information whose components have been reduced, a result of the multi-resolution analysis is calculated, a feature point at which the analysis result is a maximum or a minimum is detected, and the two-dimensional position and the detected feature point are detected. The position information on the three-dimensional space-time specified by time is
Classify into a set of isolated points, a set of lines, or a set of surfaces,
The position information of the feature point classified into the line or the curved surface is compressed based on a function of predetermined position information defined corresponding to the line or the curved surface, and the feature point classified into the line or the curved surface The above analysis result is compressed based on a function of a predetermined analysis result defined corresponding to the line or the curved surface, and the position information and analysis result of the feature point classified as the isolated point, and the line or The compressed position information of the feature points classified into the curved surface and the compressed analysis result are encoded.

【0028】本発明の第2の観点に係る動画像分析方法
によれば、上記画像平面上における2次元位置および時
間をパラメータとする第1のスムージング関数が用いら
れて、所定の解像度で原動画像の画像情報と畳み込み演
算が行なわれて、上記動画像の低周波成分が算出され
る。算出された低周波成分は、原動画像の画像情報から
減ぜられる。また、上記第1のスムージング関数を上記
2次元位置および時間についてそれぞれ1回微分した3
つの第2のスムージング関数が用いられて、複数の解像
度で上記低周波成分が減ぜられた画像情報と畳み込み演
算が行なわれ、多重解像度分析の結果が算出される。
According to the moving image analysis method according to the second aspect of the present invention, the first moving image having a predetermined resolution is used by using the first smoothing function having the two-dimensional position on the image plane and time as parameters. And the convolution operation is performed to calculate the low-frequency component of the moving image. The calculated low frequency component is subtracted from the image information of the driving image. Further, the first smoothing function is differentiated once with respect to the two-dimensional position and time, respectively.
Using the two second smoothing functions, the convolution operation is performed on the image information in which the low-frequency components have been reduced at a plurality of resolutions, and the result of the multi-resolution analysis is calculated.

【0029】次いで、上記多重解像度分析の分析結果が
極大または極小となる特徴点が検出される。
Next, a feature point at which the analysis result of the multiresolution analysis is maximum or minimum is detected.

【0030】次いで、上記検出された特徴点の、上記2
次元位置および時間で指定される3次元時空間上の位置
情報が、孤立点の集合、線の集合、または曲面の集合に
分類される。上記線または上記曲面に分類される特徴点
の位置情報は、上記線または上記曲面に対応して定義し
た所定の位置情報の関数に基づいて圧縮される。上記線
または上記曲面に分類される特徴点上の上記分析結果
は、上記線または上記曲面に対応して定義した所定の分
析結果の関数に基づいて圧縮される。
Next, the above-mentioned 2
Position information on the three-dimensional spatio-temporal space specified by the dimensional position and time is classified into a set of isolated points, a set of lines, or a set of curved surfaces. The position information of the feature points classified into the line or the curved surface is compressed based on a function of predetermined position information defined corresponding to the line or the curved surface. The analysis result on the feature points classified into the line or the curved surface is compressed based on a function of a predetermined analysis result defined corresponding to the line or the curved surface.

【0031】次いで、上記孤立点に分類される特徴点の
位置情報および分析結果、ならびに上記線または曲面に
分類される特徴点の上記圧縮された位置情報および上記
圧縮された分析結果が符号化される。
Next, the position information and analysis result of the feature point classified as the isolated point, and the compressed position information and the compressed analysis result of the feature point classified as the line or the curved surface are encoded. You.

【0032】なお、上記特徴点の検出は、上記第1のス
ムージング関数を上記2次元位置および時間についてそ
れぞれ2回微分した3つの第2のスムージング関数を用
いて、複数の解像度で上記低周波成分が減ぜられた画像
情報と畳み込み演算を行い、当該畳み込み演算の結果に
おけるゼロクロス点に基づいて特徴点を検出しても良
い。
The feature points are detected by using three second smoothing functions obtained by differentiating the first smoothing function twice with respect to the two-dimensional position and time, respectively, and using the low frequency component at a plurality of resolutions. The convolution operation may be performed with the image information in which is reduced, and the feature point may be detected based on the zero cross point in the result of the convolution operation.

【0033】あるいは、上記特徴点の検出は、上記3次
元上記空間の各次元の上記分析結果の2乗和が極値を与
える点に基づいて特徴点を検出しても良い。
Alternatively, the feature point may be detected based on a point at which the sum of squares of the analysis results in each dimension of the three-dimensional space gives an extreme value.

【0034】また、上記位置情報の圧縮は、上記線に対
応する位置情報の関数を、上記線上の所定の始点からの
長さに対する各次元の位置情報の関数として、上記3次
元時空間のそれぞれの次元で定義しても良い。
The compression of the position information is performed by converting a function of the position information corresponding to the line into a function of the position information of each dimension with respect to a length from a predetermined starting point on the line. May be defined.

【0035】あるいは、上記位置情報の圧縮は、上記線
に対応する位置情報の関数を、上記線上の所定の始点か
らの長さに対する曲率の関数、および当該長さに対する
ねじれ率の関数として定義しても良い。
Alternatively, in the compression of the position information, a function of the position information corresponding to the line is defined as a function of a curvature with respect to a length from a predetermined starting point on the line and a function of a torsion ratio with respect to the length. May be.

【0036】また、上記位置情報の圧縮は、上記曲面か
ら、上記3次元上記空間において時間次元と上記画像平
面の第1の次元とがなす第1の平面からの距離が所定の
微小範囲に含まれる第1の曲面を分割し、当該分割後の
残りの曲面から、上記3次元空間において時間次元と上
記画像平面の第2の次元とがなす第2の平面からの距離
が所定の微小範囲に含まれる第2の曲面を分割し、当該
第1の曲面および第2の曲面の分割操作を、分割後の残
りの曲面に対して順次反復して、上記曲面を複数の上記
第1の曲面および複数の上記第2の曲面に分割し、上記
曲面に対応する位置情報の関数を、それぞれの上記第1
の曲面に対応した、上記第1の平面上の位置情報に対す
る上記第1の平面からの距離の関数、および、それぞれ
の上記第2の曲面に対応した、上記第2の平面上の位置
情報に対する上記第2の平面からの距離の関数として定
義しても良い。
In the compression of the position information, the distance from the curved surface to the first plane formed by the time dimension and the first dimension of the image plane in the three-dimensional space is included in a predetermined minute range. The first curved surface to be divided is divided, and a distance from a second plane formed by a time dimension and a second dimension of the image plane in the three-dimensional space from the remaining curved surface after the division is within a predetermined minute range. The second surface included is divided, and the operation of dividing the first surface and the second surface is sequentially repeated for the remaining surfaces after the division, so that the surface is divided into a plurality of the first surfaces and the plurality of first surfaces. Dividing into a plurality of the second curved surfaces, a function of position information corresponding to the curved surface is assigned to each of the first curved surfaces.
A function of the distance from the first plane to the position information on the first plane corresponding to the curved surface, and the position information on the second plane corresponding to each of the second curved surfaces. It may be defined as a function of the distance from the second plane.

【0037】あるいは、上記位置情報の圧縮は、上記曲
面を上記画像平面で切断してできる各切断線について定
義される、当該切断線上の所定の始点からの距離に対す
る曲率の関数を多重解像度分析し、当該分析結果の特異
点を検出し、上記検出された特異点から、隣接した上記
画像平面上の当該特異点間の距離が所定の範囲内に含ま
れる特異点同士をつないでできる複数の曲線を抽出し、
上記曲面に対応する位置情報の関数を、上記抽出した複
数の曲線上の所定の始点からの距離に対する曲率の関
数、および当該距離に対するねじれ率の関数として定義
しても良い。
Alternatively, the position information may be compressed by multi-resolution analysis of a curvature function with respect to a distance from a predetermined starting point on the cutting line, which is defined for each cutting line formed by cutting the curved surface at the image plane. Detecting a singular point of the analysis result, and from the detected singular point, a plurality of curves formed by connecting singular points whose distances between adjacent singular points on the adjacent image plane are within a predetermined range. Extract
The function of the position information corresponding to the curved surface may be defined as a function of a curvature with respect to a distance from a predetermined start point on the plurality of extracted curves and a function of a torsion rate with respect to the distance.

【0038】本発明の第3の観点に係る動画像豪勢装置
は、2次元画像が時系列的に連続する動画像の2次元画
像平面上における2次元位置および時間をパラメータと
する第1のスムージング関数を用いて、所定の解像度で
原動画像の画像情報と畳み込み演算が行なわれて、上記
動画像の低周波成分が算出され、原動画像の画像情報か
ら上記低周波成分が減ぜられ、上記第1のスムージング
関数を上記2次元位置および時間についてそれぞれ1回
微分した3つの第2のスムージング関数を用いて、複数
の解像度で上記低周波成分が減ぜられた画像情報と畳み
込み演算が行なわれて、多重解像度分析の結果が算出さ
れ、上記分析結果が極大または極小となる特徴点が検出
され、上記検出された特徴点の、上記2次元位置および
時間で指定される3次元時空間上の位置情報が、孤立点
の集合、線の集合、または曲面の集合に分類され、上記
線または上記曲面に分類される特徴点の位置情報が、上
記線または上記曲面に対応して定義した所定の位置情報
の関数に基づいて圧縮され、上記線または上記曲面に分
類される特徴点上の上記分析結果が、上記線または上記
曲面に対応して定義した所定の分析結果の関数に基づい
て圧縮され、上記孤立点に分類される特徴点の位置情報
および分析結果、ならびに上記線または曲面に分類され
る特徴点の上記圧縮された位置情報および上記圧縮され
た分析結果が符号化されて生成される圧縮信号から、動
画像を合成する動画像合成装置であって、以下の手段を
有する。
[0038] A moving image dynamics apparatus according to a third aspect of the present invention comprises a first smoothing using two-dimensional position and time of a moving image in which two-dimensional images are successive in time series on a two-dimensional image plane as parameters. Using a function, image information of the original moving image is convolved with the image information at a predetermined resolution, the low-frequency component of the moving image is calculated, and the low-frequency component is subtracted from the image information of the original moving image. Using the three second smoothing functions obtained by differentiating the one smoothing function once with respect to the two-dimensional position and time, the convolution operation is performed with the image information in which the low-frequency component is reduced at a plurality of resolutions. A result of the multi-resolution analysis is calculated, a feature point at which the analysis result is maximum or minimum is detected, and the detected feature point is designated by the two-dimensional position and time. Position information on the three-dimensional space-time is classified into a set of isolated points, a set of lines, or a set of surfaces, and the position information of the feature points classified into the line or the surface corresponds to the line or the surface. The analysis result on the feature point classified into the line or the curved surface is compressed based on the function of the predetermined position information defined as above, and the function of the predetermined analysis result defined corresponding to the line or the curved surface is obtained. The position information and the analysis result of the feature point classified as the isolated point and the compressed position information and the compressed analysis result of the feature point classified as the line or the curved surface are encoded based on A moving image synthesizing apparatus for synthesizing a moving image from a compressed signal generated and generated, comprising the following means.

【0039】すなわち、上記符号化された圧縮信号を逆
符号化する逆符号化手段と、上記逆符号化により再生さ
れる上記圧縮された位置情報に基づいて、上記位置情報
の関数を復元し、当該関数上における特徴点の位置情報
を復元する位置情報復元手段と、上記逆符号化により再
生される上記圧縮された分析結果に基づいて、上記分析
結果の関数を復元し、当該関数上における特徴点の分析
結果を復元する分析結果復元手段と、上記復元された特
徴点の位置情報および分析結果に基づいて上記3次元時
空間上の分析結果を補完し、当該補完した分析結果に上
記低周波成分を加算し、上記第2のスムージング関数の
逆変換関数を用いて、上記低周波成分が加算された分析
結果と畳み込み演算を行い、上記複数の解像度における
当該演算結果を合成して上記3次元時空間上の画像情報
を復元する画像情報復元手段とを有する。
That is, a function of the position information is reconstructed based on the decoding means for decoding the coded compressed signal and the compressed position information reproduced by the decoding. Position information restoring means for restoring position information of a feature point on the function; and restoring a function of the analysis result based on the compressed analysis result reproduced by the inverse encoding. An analysis result restoring means for restoring the analysis result of the point, and complementing the analysis result on the three-dimensional space-time based on the position information and the analysis result of the restored feature point; The convolution operation is performed on the analysis result to which the low frequency component has been added by using the inverse transform function of the second smoothing function, and the operation result at the plurality of resolutions is added. And an image information restoring means for restoring the image information on space-time three-dimensional above with.

【0040】本発明の第3の観点に係る動画像合成装置
によれば、上記逆符号化手段において、上記符号化され
た圧縮信号が逆符号化される。
According to the moving picture synthesizing apparatus according to the third aspect of the present invention, the coded compressed signal is decoded by the decoding means.

【0041】上記位置情報復元手段においては、上記逆
符号化により再生される上記圧縮された位置情報に基づ
いて、上記位置情報の関数が復元され、当該関数上にお
ける特徴点の位置情報が復元される。
In the position information restoring means, the function of the position information is restored based on the compressed position information reproduced by the inverse encoding, and the position information of the feature point on the function is restored. You.

【0042】上記分析結果復元手段においては、上記逆
符号化により再生される上記圧縮された分析結果に基づ
いて、上記分析結果の関数が復元され、当該関数上にお
ける特徴点の分析結果が復元される。
In the analysis result restoring means, the function of the analysis result is restored based on the compressed analysis result reproduced by the inverse encoding, and the analysis result of the feature point on the function is restored. You.

【0043】上記画像情報復元手段においては、上記復
元された特徴点の位置情報および分析結果に基づいて上
記3次元時空間上の分析結果が補完される。当該補完さ
れた分析結果には、上記低周波成分が加算される。次い
で、上記第2のスムージング関数の逆変換関数が用いら
れて、上記低周波成分が加算された分析結果と畳み込み
演算が行なわる。上記複数の解像度における当該畳み込
み演算結果が合成されて、上記3次元時空間上の画像情
報が復元される。
In the image information restoring means, the analysis result on the three-dimensional spatiotemporal space is complemented based on the restored position information of the characteristic points and the analysis result. The low frequency component is added to the complemented analysis result. Next, a convolution operation is performed with the analysis result to which the low frequency component has been added by using an inverse transformation function of the second smoothing function. The convolution operation results at the plurality of resolutions are combined to restore the three-dimensional spatio-temporal image information.

【0044】なお、上記位置情報復元手段は、上記線上
の所定の始点からの長さに対する各次元の位置情報の関
数として、上記3次元時空間のそれぞれの次元で定義さ
れる、上記線に対応した位置情報の関数を復元しても良
い。
The position information restoring means, as a function of position information of each dimension with respect to a length from a predetermined starting point on the line, corresponds to the line defined in each dimension of the three-dimensional space-time. The function of the obtained position information may be restored.

【0045】あるいは、上記位置情報復元手段は、上記
線上の所定の始点からの長さに対する曲率の関数、およ
び当該長さに対するねじれ率の関数として定義される、
上記線に対応した位置情報の関数を復元しても良い。
Alternatively, the position information restoring means is defined as a function of a curvature with respect to a length from a predetermined starting point on the line and a function of a torsion rate with respect to the length.
The function of the position information corresponding to the line may be restored.

【0046】また、上記位置情報復元手段は、上記3次
元時空間における時間次元と上記画像平面の第1の次元
とがなす第1の平面上の位置情報に対する上記第1の平
面からの距離の関数、および上記3次元時空間における
時間次元と上記画像平面の第2の次元とがなす第2の平
面上の位置情報に対する上記第2の平面からの距離の関
数として定義される、上記曲面に対応した位置情報の関
数を復元しても良い。
Further, the position information restoring means is configured to calculate a distance from the first plane with respect to position information on a first plane formed by the time dimension in the three-dimensional space and the first dimension of the image plane. A function defined as a function of a distance from the second plane to position information on a second plane defined by a time dimension in the three-dimensional space-time and a second dimension of the image plane; The function of the corresponding position information may be restored.

【0047】あるいは、上記位置情報復元手段は、複数
の曲線上の所定の始点からの距離に対する曲率の関数、
および当該距離に対するねじれ率の関数として定義され
る、上記曲面に対応した位置情報の関数を復元し、当該
復元された関数による複数の曲線が、上記3次元時空間
の上記画像平面によって切断されできる切断線上の点か
ら、当該切断線上の所定の始点からの距離に対する曲率
の関数を復元し、当該関数上における特徴点の位置情報
を復元しても良い。
Alternatively, the position information restoring means includes a function of a curvature with respect to a distance from a predetermined starting point on a plurality of curves;
And a function of the position information corresponding to the curved surface defined as a function of the torsion rate with respect to the distance is restored, and a plurality of curves based on the restored function can be cut by the image plane in the three-dimensional space-time. A function of curvature with respect to a distance from a predetermined starting point on the cutting line may be restored from a point on the cutting line, and position information of a feature point on the function may be restored.

【0048】本発明の第4の観点に係る動画像合成方法
は、2次元画像が時系列的に連続する動画像の2次元画
像平面上における2次元位置および時間をパラメータと
する第1のスムージング関数を用いて、所定の解像度で
原動画像の画像情報と畳み込み演算が行なわれて、上記
動画像の低周波成分が算出され、原動画像の画像情報か
ら上記低周波成分が減ぜられ、上記第1のスムージング
関数を上記2次元位置および時間についてそれぞれ1回
微分した3つの第2のスムージング関数を用いて、複数
の解像度で上記低周波成分が減ぜられた画像情報と畳み
込み演算が行なわれて、多重解像度分析の結果が算出さ
れ、上記分析結果が極大または極小となる特徴点が検出
され、上記検出された特徴点の、上記2次元位置および
時間で指定される3次元時空間上の位置情報が、孤立点
の集合、線の集合、または曲面の集合に分類され、上記
線または上記曲面に分類される特徴点の位置情報が、上
記線または上記曲面に対応して定義した所定の位置情報
の関数に基づいて圧縮され、上記線または上記曲面に分
類される特徴点上の上記分析結果が、上記線または上記
曲面に対応して定義した所定の分析結果の関数に基づい
て圧縮され、上記孤立点に分類される特徴点の位置情報
および分析結果、ならびに上記線または曲面に分類され
る特徴点の上記圧縮された位置情報および上記圧縮され
た分析結果が符号化されて生成される圧縮信号から、動
画像を合成する動画像合成方法であって、以下の処理を
行なう。
A moving image synthesizing method according to a fourth aspect of the present invention is a first smoothing method using a two-dimensional position and time on a two-dimensional image plane of a moving image in which two-dimensional images are successive in time series as parameters. Using a function, image information of the original moving image is convolved with the image information at a predetermined resolution, the low-frequency component of the moving image is calculated, and the low-frequency component is subtracted from the image information of the original moving image. Using the three second smoothing functions obtained by differentiating the one smoothing function once with respect to the two-dimensional position and time, the convolution operation is performed with the image information in which the low-frequency component is reduced at a plurality of resolutions. A result of the multi-resolution analysis is calculated, a feature point at which the analysis result is maximum or minimum is detected, and the detected feature point is designated by the two-dimensional position and time. Position information on the three-dimensional space-time is classified into a set of isolated points, a set of lines, or a set of surfaces, and the position information of the feature points classified into the line or the surface corresponds to the line or the surface. The analysis result on the feature point classified into the line or the curved surface is compressed based on the function of the predetermined position information defined as above, and the function of the predetermined analysis result defined corresponding to the line or the curved surface is obtained. The position information and the analysis result of the feature point classified as the isolated point and the compressed position information and the compressed analysis result of the feature point classified as the line or the curved surface are encoded based on This is a moving image synthesizing method for synthesizing a moving image from a compressed signal generated by performing the following processing.

【0049】すなわち、上記符号化された圧縮信号を逆
符号化し、上記逆符号化により再生される上記圧縮され
た位置情報に基づいて、上記位置情報の関数を復元し、
当該関数上における特徴点の位置情報を復元し、上記逆
符号化により再生される上記圧縮された分析結果に基づ
いて、上記分析結果の関数を復元し、当該関数上におけ
る特徴点の分析結果を復元し、上記復元された特徴点の
位置情報および分析結果に基づいて上記3次元時空間上
の分析結果を補完し、当該補完した分析結果に上記低周
波成分を加算し、上記第2のスムージング関数の逆変換
関数を用いて、上記低周波成分が加算された分析結果と
畳み込み演算を行い、上記複数の解像度における当該演
算結果を合成して上記3次元時空間上の画像情報を復元
する。
That is, the encoded compressed signal is inversely encoded, and the function of the position information is restored based on the compressed position information reproduced by the inverse encoding.
Restore the position information of the feature points on the function, restore the function of the analysis result based on the compressed analysis result reproduced by the inverse encoding, and analyze the analysis result of the feature point on the function. Restoring, complementing the analysis result on the three-dimensional space-time based on the restored position information of the feature points and the analysis result, adding the low-frequency component to the complemented analysis result, and performing the second smoothing. Using the inverse transformation function of the function, a convolution operation is performed with the analysis result to which the low-frequency component has been added, and the operation results at the plurality of resolutions are combined to restore the image information on the three-dimensional space-time.

【0050】本発明の第4の観点に係る動画像合成方法
によれば、上記符号化された圧縮信号が逆符号化され
る。
According to the moving picture synthesizing method according to the fourth aspect of the present invention, the encoded compressed signal is inversely encoded.

【0051】次いで、上記逆符号化により再生される上
記圧縮された位置情報に基づいて、上記位置情報の関数
が復元され、当該関数上における特徴点の位置情報が復
元される。また、上記逆符号化により再生される上記圧
縮された分析結果に基づいて、上記分析結果の関数が復
元され、当該関数上における特徴点の分析結果が復元さ
れる。
Next, the function of the position information is restored based on the compressed position information reproduced by the inverse encoding, and the position information of the feature point on the function is restored. Further, a function of the analysis result is restored based on the compressed analysis result reproduced by the inverse encoding, and an analysis result of a feature point on the function is restored.

【0052】次いで、上記復元された特徴点の位置情報
および分析結果に基づいて上記3次元時空間上の分析結
果が補完され、当該補完された分析結果に上記低周波成
分が加算される。次いで、上記第2のスムージング関数
の逆変換関数が用いられて、上記低周波成分が加算され
た分析結果と畳み込み演算が行なわれる。上記複数の解
像度における当該畳み込み演算の結果が合成されて、上
記3次元時空間上の画像情報が復元される。
Next, the analysis result in the three-dimensional spatiotemporal space is complemented based on the restored position information of the feature point and the analysis result, and the low-frequency component is added to the complemented analysis result. Next, using the inverse transform function of the second smoothing function, a convolution operation is performed with the analysis result to which the low frequency component has been added. The result of the convolution operation at the plurality of resolutions is synthesized, and the image information on the three-dimensional space-time is restored.

【0053】なお、上記位置情報の復元は、上記線上の
所定の始点からの長さに対する各次元の位置情報の関数
として、上記3次元時空間のそれぞれの次元で定義され
る、上記線に対応した位置情報の関数を復元しても良
い。
The restoration of the position information is performed as a function of the position information of each dimension with respect to the length from the predetermined starting point on the line, and the position information corresponding to the line defined in each dimension of the three-dimensional spatiotemporal space. The function of the obtained position information may be restored.

【0054】あるいは、上記位置情報の復元は、上記線
上の所定の始点からの長さに対する曲率の関数、および
当該長さに対するねじれ率の関数として定義される、上
記線に対応した位置情報の関数を復元しても良い。
Alternatively, the position information can be restored by defining a function of the curvature with respect to the length from a predetermined starting point on the line and a function of the position information corresponding to the line, which is defined as a function of the torsion rate with respect to the length. May be restored.

【0055】また、上記位置情報の復元は、上記3次元
時空間における時間次元と上記画像平面の第1の次元と
がなす第1の平面上の位置情報に対する上記第1の平面
からの距離の関数、および上記3次元時空間における時
間次元と上記画像平面の第2の次元とがなす第2の平面
上の位置情報に対する上記第2の平面からの距離の関数
として定義される、上記曲面に対応した位置情報の関数
を復元しても良い。
Further, the position information is restored by calculating a distance from the first plane to position information on a first plane formed by a time dimension in the three-dimensional space-time and a first dimension of the image plane. A function defined as a function of a distance from the second plane to position information on a second plane defined by a time dimension in the three-dimensional space-time and a second dimension of the image plane; The function of the corresponding position information may be restored.

【0056】あるいは、上記位置情報の復元は、複数の
曲線上の所定の始点からの距離に対する曲率の関数、お
よび当該距離に対するねじれ率の関数として定義され
る、上記曲面に対応した位置情報の関数を復元し、当該
復元された関数による複数の曲線が、上記3次元時空間
の上記画像平面によって切断されできる切断線上の点か
ら、当該切断線上の所定の始点からの距離に対する曲率
の関数を復元し、当該関数上における特徴点の位置情報
を復元しても良い。
Alternatively, the position information can be restored by defining a function of the curvature with respect to a distance from a predetermined starting point on the plurality of curves and a function of the position information corresponding to the curved surface defined as a function of the torsion rate with respect to the distance. From a point on a cutting line that can be cut by the image plane in the three-dimensional spatiotemporal space from a point on a cutting line at which a plurality of curves based on the restored function are restored. Then, the position information of the feature point on the function may be restored.

【0057】[0057]

【作用】3次元空間に分布する画像情報の変化を分析
し、また、この分析によって得られた変化の特徴点にお
ける画像情報を用いて元の動画像を近似し、復元する。
画像情報の3次元空間におけるエッジ曲面を検出し、そ
のエッジ曲面上の点(エッジ点)で画像情報を分析し、
この分析結果を用いて、エッジ曲面以外の点の画像情報
を補関することにより画像情報を合成し、元の画像情報
の復元を行なう。
The change of the image information distributed in the three-dimensional space is analyzed, and the original moving image is approximated and restored using the image information at the characteristic point of the change obtained by the analysis.
An edge surface in the three-dimensional space of the image information is detected, and the image information is analyzed at points (edge points) on the edge surface,
Using this analysis result, the image information is synthesized by interpolating the image information of points other than the edge curved surface, and the original image information is restored.

【0058】画像のエッジ点の画像情報の圧縮は、曲面
あるいは曲線という幾何学的な構造をパラメトリックな
関数表現で表し、その関数を分析することにより行なわ
れている。
The compression of the image information of the edge points of the image is performed by expressing a geometric structure such as a curved surface or a curve by a parametric function expression and analyzing the function.

【0059】[0059]

【実施例】以下、本発明の動画像分析と合成方法および
その装置の第一の実施例について説明する。本発明の動
画像分析と合成方法およびその装置は、動画像情報につ
いて単一の画像フレーム内の画像情報(輝度信号、色差
信号等)のみについて着目して処理を行うのではなく、
画像情報を連続する画像フレームの画像平面と時間軸が
構成する3次元空間に画像情報が分布するものとしてと
らえ、動画像情報の分析処理および合成処理を行うもの
である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of a moving picture analyzing and synthesizing method and apparatus according to the present invention will be described below. The moving image analysis and combination method and apparatus of the present invention do not focus on only the image information (luminance signal, color difference signal, etc.) in a single image frame for the moving image information.
The image information is regarded as being distributed in a three-dimensional space formed by the image plane and the time axis of a continuous image frame, and the moving image information is analyzed and synthesized.

【0060】つまり、3次元空間に分布する画像情報の
変化を分析し、また、この分析によって得られた変化の
特徴点における画像情報を用いて元の動画像を近似し、
復元する。第一の実施例では、画像情報の3次元空間に
おけるエッジ曲面を検出し、そのエッジ曲面上の点(エ
ッジ点)で画像情報を分析し、この分析結果を用いて、
エッジ曲面以外の点の画像情報を補関することにより画
像情報を合成し、元の画像情報の復元を行なっている。
That is, the change of the image information distributed in the three-dimensional space is analyzed, and the original moving image is approximated by using the image information at the characteristic point of the change obtained by the analysis.
Restore. In the first embodiment, an edge curved surface in a three-dimensional space of image information is detected, image information is analyzed at a point (edge point) on the edge curved surface, and the analysis result is used by using the analysis result.
The image information is synthesized by interpolating the image information of points other than the edge curved surface, and the original image information is restored.

【0061】画像のエッジ点の位置情報についても当然
符号化が行われる。この画像のエッジ点の位置情報の符
号化(圧縮)は、曲面あるいは曲線という幾何学的な構
造をパラメトリックな関数表現で表し、その関数を分析
することにより行なわれている。
The position information of the edge point of the image is naturally encoded. The encoding (compression) of the position information of the edge points of the image is performed by expressing a geometric structure such as a curved surface or a curve in a parametric function expression and analyzing the function.

【0062】以下、図1を参照し、本発明の動画像分析
合成装置1の構成を説明する。なお、第一の実施例にお
いては、説明の便宜上白黒のFフレーム(Fは整数)分
の動画像情報について符号化する場合について述べる。
図1は、動画像分析合成装置1の構成を示す図である。
図1において、動画像メモリ11は、白黒動画像(以
下、単に動画像と記す)のFフレーム分の情報(デー
タ)を記録するフレームメモリーである。情報変化分析
部12は、動画像メモリ11に記憶された動画像情報に
ついて、輝度変化の3次元分析を行い、その分析結果を
特徴点検出部13に入力する。
Hereinafter, the configuration of the moving picture analysis / synthesis apparatus 1 of the present invention will be described with reference to FIG. In the first embodiment, a case will be described in which moving image information for a black and white F frame (F is an integer) is encoded for convenience of description.
FIG. 1 is a diagram illustrating a configuration of the moving image analysis and synthesis device 1.
In FIG. 1, a moving image memory 11 is a frame memory for recording information (data) for F frames of a black and white moving image (hereinafter, simply referred to as a moving image). The information change analysis unit 12 performs a three-dimensional analysis of a change in luminance of the moving image information stored in the moving image memory 11, and inputs the analysis result to the feature point detection unit 13.

【0063】特徴点検出部13は、情報変化分析部12
から入力される分析結果を処理し、解析して特徴点の存
在する場所を3次元空間上に点として表現し、特徴点符
号化部14および情報符号化部15に入力する。特徴点
符号化部14は、特徴点検出部13の解析結果をさらに
処理し、特徴点の存在する場所を曲面として表現する。
情報符号化部15は、入力された動画像を再生するため
に必要な情報を得るための分析を上述の特徴点において
実行し、その分析結果を総合符号化部16に入力する。
総合符号化部16は、特徴点符号化部14および減算回
路15の出力情報を符号化する。以上の各部分が本発明
の動画像分析装置10を構成する。以上の各部分はそれ
ぞれ独立したハードウェアで構成されるか、あるいは同
一計算機上でソフトウェア的に構成されるかを問わな
い。
The feature point detecting section 13 includes the information change analyzing section 12
Is processed and analyzed, and the location of the feature point is represented as a point in a three-dimensional space, and is input to the feature point encoding unit 14 and the information encoding unit 15. The feature point encoding unit 14 further processes the analysis result of the feature point detection unit 13 and expresses the location where the feature point exists as a curved surface.
The information encoding unit 15 performs an analysis for obtaining information necessary for reproducing the input moving image at the above-described feature points, and inputs the analysis result to the general encoding unit 16.
The general encoding unit 16 encodes output information of the feature point encoding unit 14 and the subtraction circuit 15. The above components constitute the moving image analyzer 10 of the present invention. It does not matter whether each of the above parts is configured by independent hardware, or configured by software on the same computer.

【0064】総合再生部21は、総合符号化部16で符
号化された情報を逆符号化して特徴点符号化部14およ
び情報符号化部15の出力情報を再生する。情報再生部
22は、総合再生部21で再生された特徴点の位置に関
する情報に基づいて特徴点を3次元空間内に選び、情報
符号化部15の出力情報をその位置に配置し、元画像再
生部23に入力する。特徴点外の場所における画像成分
も補関することにより、元の動画像の視覚的に重要であ
る輝度変化の激しい部分(3次元空間で)は忠実に、そ
の他の部分はなだらかに近似されることになる。元画像
再生部23は、情報再生部22の再生した情報に基づい
てコンベックスプロジェクション法により元の動画像を
合成し、再生する。以上の総合再生部21〜元画像再生
部23の各部分が本発明の動画像合成装置20を構成す
る。
The general reproducing unit 21 reproduces output information of the feature point coding unit 14 and the information coding unit 15 by inversely coding the information coded by the general coding unit 16. The information reproducing unit 22 selects a feature point in a three-dimensional space based on the information on the position of the feature point reproduced by the general reproducing unit 21, arranges output information of the information encoding unit 15 at the position, and Input to the playback unit 23. By interpolating the image components at locations outside the feature points, the visually important parts of the original moving image where the luminance changes rapidly (in three-dimensional space) are faithfully approximated, and the other parts are approximated smoothly. become. The original image reproducing unit 23 combines and reproduces the original moving image by the convex projection method based on the information reproduced by the information reproducing unit 22. Each part of the overall reproduction unit 21 to the original image reproduction unit 23 constitutes the moving image synthesizing device 20 of the present invention.

【0065】以下、動画像分析合成装置1の各部分ごと
に詳細な動作を説明する。動画像メモリ11は、カメラ
やビデオなどの画像信号出力装置よりFフレーム分の画
像情報をメモリー上に記憶する。この画像情報は、画像
フレーム上の位置(座標x,y)と時間(該情報が存在
するフレームt)に対応付けられるので、Io(x,y,
t) として表される。つまり、この画像情報(データ)
はイメージ平面と時間軸の3次元空間上に分布する情報
と考えることができる。このデータは、元動画像データ
として情報変化分析部12から処理のためにアクセスさ
れる。
The detailed operation of each part of the moving picture analysis / synthesis apparatus 1 will be described below. The moving image memory 11 stores image information for F frames from an image signal output device such as a camera or a video on the memory. Since this image information is associated with the position (coordinates x, y) on the image frame and the time (frame t in which the information exists), Io (x, y,
t). In other words, this image information (data)
Can be considered as information distributed in the three-dimensional space of the image plane and the time axis. This data is accessed for processing from the information change analysis unit 12 as original moving image data.

【0066】情報変化分析部12は、動画像メモリ11
に記憶された元動画像の3次元的な変化を分析する。具
体的には、多重解像度での各方向へ方向性のあるフィル
タリング処理を行う。この多重解像度はスケールσj
j=j1 ,...,jJ まで行なわれる。まず、DC成
分が独立に分析される。このDC成分は総合符号化部1
6に送られ、符号化され、動画像合成装置20において
伸長されて再び合成された画像信号に加えられる。この
分析は、窓関数あるいはスムージング関数を関数G
(x,y,t;σj )とおき、最も粗い解像度のフィル
ターの特性(j=jJ )に相当する関数G(x,y,
t; σjJ)によるフィルタリングに相当する。
The information change analysis unit 12 includes a moving image memory 11
The three-dimensional change of the original moving image stored in the memory is analyzed. Specifically, a filtering process having directionality in each direction at multiple resolutions is performed. J = j1, in this multi-resolution scale sigma j. . . , JJ. First, the DC components are independently analyzed. This DC component is applied to the general encoding unit 1
6 is added to the image signal that has been encoded, decompressed in the moving image synthesizing device 20 and synthesized again. This analysis shows that the window or smoothing function is
(X, y, t; σ j ), and a function G (x, y, j) corresponding to the characteristic (j = jJ) of the filter having the coarsest resolution.
t; σ jJ ).

【0067】すなわち、このフィルタリングは次式で表
される。
That is, this filtering is represented by the following equation.

【数14】 ここで、式中の符号***は3次元の畳み込みを表す。
この成分を引いた信号は、次式で表される。
[Equation 14] Here, the symbol *** in the expression represents a three-dimensional convolution.
The signal obtained by subtracting this component is expressed by the following equation.

【数15】 この信号を用いて動画像の変化を分析する。まず、以下
の式で定義される特性を有する分析フィルターにより、
画像信号(x,y,t) について畳み込み演算がなさ
れる。
(Equation 15) The change of the moving image is analyzed using this signal. First, by an analysis filter having the characteristics defined by the following formula,
A convolution operation is performed on the image signal I (x, y, t).

【数16】 (Equation 16)

【数17】 [Equation 17]

【数18】 すなわち、畳み込み演算の結果は以下の式で表される。(Equation 18) That is, the result of the convolution operation is represented by the following equation.

【数19】 [Equation 19]

【数20】 (Equation 20)

【数21】 (Equation 21)

【0068】特徴点検出部13は、情報変化分析部12
の分析結果の極大値および極小値(極値)の場所を求め
る。具体的には、式19、20、21の結果をもう一度
同じ方向に微分し、その値が0となる点(ゼロクロス
点)を求めることにより極値となる画像データの3次元
空間における位置をもとめる。いいかえれば、これは情
報変化分析部12の分析結果について、各軸方向への2
回微分を行う形式の分析フィルターの出力のゼロクロス
点を求めることになる。
The feature point detecting section 13 includes the information change analyzing section 12
The location of the maximum value and the minimum value (extreme value) of the analysis result of is obtained. Specifically, the results of Expressions 19, 20, and 21 are differentiated in the same direction once again, and a point (zero cross point) where the value is 0 is obtained, thereby obtaining the position of the extreme value image data in the three-dimensional space. . In other words, this is the result of the analysis by the information change analysis unit 12 in each axis direction.
The zero crossing point of the output of the analysis filter in the form of performing the differentiation is obtained.

【0069】すなわち、2回微分を行う形式の分析フィ
ルターの特性を以下の式で定義する。
That is, the characteristics of an analysis filter of the type that performs twice differentiation are defined by the following equations.

【数22】 (Equation 22)

【数23】 (Equation 23)

【数24】 上記特性を有する分析フィルターにより、画像信号
(x,y,t) をフィルタリングし、それぞれのゼロク
ロス点を求める。すなわち、以下の式で表される演算を
行う。
[Equation 24]The image signal is analyzed by the analysis filter having the above characteristics.I
Filter (x, y, t)
Find the loss point. That is, the operation represented by the following equation is
Do.

【数25】 (Equation 25)

【数26】 (Equation 26)

【数27】 [Equation 27]

【0070】以上の演算により得られた、フィルター出
力WxxI(x,y,t; σj )=0となるゼロクロス点
をPxi (xxi,yxi,txi;σj )と表す。ただし、
j=1,..., j x 、で jx 個のゼロクロス点が
あるものとする。同様にフィルター出力WyyI(x,
y,t; σj )=0を与えるゼロクロス点をPyh (x
yh,yyh,tyh;σj )と表す。ただし、h=1,2,
3,..., jy jy 個のゼロクロス点があるも
のとする。
[0070] obtained by the above operation, the filter output W xx I (x, y, t; σ j); expressed as = 0 and becomes zero crossing point Px i (σ j x xi, y xi, t xi) . However,
j = 1,. . . , J N x , and j N x zero cross points. Similarly, the filter output W yy I (x,
y, t; σ j ) = 0, the zero-cross point is Py h (x
yh , y yh , t yh ; σ j ). Where h = 1, 2,
3,. . . , It is assumed that there is a j N y-number of zero-cross point j N y.

【0071】また、同様にフィルター出力Wtt(x,
y,t;σj )=0を与えるゼロクロス点をPtk
tk , tk tk ;σj )と表す。ただし、k=1,
2,..., jt jt 個のゼロクロス点があるも
のとする。
Similarly, the filter output W tt (x,
y, t; σ j ) = 0, the zero-cross point is denoted by Pt k ( x
tk, y tk, t tk; a sigma j) represents. Where k = 1,
2,. . . , It is assumed that there is a j N t pieces of zero-cross point j N t.

【0072】以下、表記の簡略化のために、ゼロクロス
点Pxi (xxi,yxi,txi;σj)をPxi (j)と
表す。同様に、ゼロクロス点Pyh (xyh,yyh
yh;σj )をPyh (j)と表す。また同様に、ゼロ
クロス点Ptk tk tk tk ;σj )をPt
k (j)と表す。特徴点符号化部14は、特徴点検出部
13で得られたゼロクロス点Pxi (j)、ゼロクロス
点Pyh (j)、およびゼロクロス点Ptk (j)を、
それぞれ曲面上の点、曲線上の点、あるいは孤立した点
としてとらえる。この曲面、曲線、および孤立点のパラ
メータによりゼロクロス点Pxi (j),ゼロクロス点
Pyh (j),ゼロクロス点Ptk (j)を表すことに
より符号化する。
[0072] Hereinafter, for simplicity of notation, the zero-crossing point Px i (x xi, y xi , t xi; σ j) is expressed as the Px i (j). Similarly, the zero cross point Py h (x yh , y yh ,
t yh; σ j) are expressed as Py h (j). Similarly, the zero-cross point Pt k (x tk, y tk , t tk; σ j) of Pt
k (j). Feature point coding unit 14, the zero-crossing point obtained by the feature point detection unit 13 Px i (j), the zero-crossing point Py h (j), and zero cross point Pt k a (j),
They can be considered as points on a curved surface, points on a curve, or isolated points. The curved, curves, and zero-crossing point by the parameter of the isolated point Px i (j), the zero-crossing point Py h (j), for encoding by representing the zero-cross point Pt k (j).

【0073】まず、ゼロクロス点Pxi (j)、ゼロク
ロス点Pyh (j)、およびゼロクロス点Ptk (j)
を重複している点がある場合は、これらを1つにして特
徴点集合P(j)を作る。すなわち、特徴点集合P
(j)は、フィルター出力Wxx(x,y,t;σj )=
0、または、フィルター出力Wyy(x,y,t;σj
=0、または、フィルター出力Wtt(x,y,t;
σj )=0の値となる3次元空間の点である。
First, the zero cross point Px i (j), the zero cross point Py h (j), and the zero cross point Pt k (j)
If there is a point that overlaps, these are combined into one to create a feature point set P (j). That is, the feature point set P
(J) is the filter output W xx (x, y, t; σ j ) =
0 or filter output W yy (x, y, t; σ j )
= 0 or the filter output W tt (x, y, t;
σ j ) = 0 in a three-dimensional space where the value is zero.

【0074】特徴点集合P(j)の要素を特徴点Pp
(j)と表す。ただし、特徴点集合P(j)は、その要
素である特徴点Ppの添字はp=1,2,...Npを
表し、全部でNp個の特徴点を有する。
The elements of the feature point set P (j) are
(J). However, the feature point set P (j) is such that the subscripts of the feature points Pp which are its elements are p = 1, 2,. . . Np, and has a total of Np feature points.

【0075】次に、特徴点を3次元空間の中でつないで
いくつかのグループを作る。ここで、「つなぐ」とは、
ある特徴点Pp(j)に注目し、その画素を中心とし
て、例えば(3×3×3)画素から構成される立方体に
ついて処理を行い、その中に同じく特徴点集合P(j)
の要素である特徴点が含まれていればその点は同じグル
ープとするということである。
Next, some groups are created by connecting the feature points in a three-dimensional space. Here, “connect” means
Focusing on a certain feature point Pp (j), processing is performed on a cube composed of, for example, (3 × 3 × 3) pixels around the pixel, and a feature point set P (j) is similarly included in the cube.
If a feature point that is an element is included, the point belongs to the same group.

【0076】このグループの要素は3次元空間中の2次
元曲面、1次元曲線あるいは点として表現できる。ただ
し、それらが互いにくっついている場合もある。これら
のグループを、それぞれ点の要素、曲線の要素、曲面の
要素だけから構成されるグループに分ける。
The elements of this group can be represented as two-dimensional curved surfaces, one-dimensional curves or points in a three-dimensional space. However, they may be attached to each other. These groups are divided into groups consisting only of point elements, curve elements, and curved surface elements.

【0077】以下、このようにしてスケールσj におい
て、gj=1,2,...,Mj個のグループができた
場合について述べる。gj番目のグループPgj(j)に
おいて、要素の数はQ(gj)個であると刷る。説明の
便宜上、孤立点のみからなるグループをgj=
1,...M0j と表す。また、曲線のみからなるグル
ープをgj=M0 j +1,...,M0j +M1j と表
す。また、曲面からなるグループをgj=M0j +M1
j +1,...,M0j +M1j +M2j と表す。
[0077] Hereinafter, the scale sigma j in this manner, gj = 1, 2,. . . , Mj groups will be described. In the gj-th group P gj (j), the number of elements is printed as Q (gj). For convenience of explanation, a group consisting only of isolated points is represented by gj =
1,. . . M0 j . Also, a group consisting only of curves is represented by gj = M0 j + 1 ,. . . , M0 j + M1 j . Also, a group consisting of curved surfaces is represented by gj = M0 j + M1
j + 1,. . . , M0 j + M1 j + M2 j .

【0078】以上の記号を以下に整理する。以下、ある
集合Pの要素の数を|P|と表す。特徴点集合P(j)
はスケールσj における特徴点Pp (j)を要素とする
集合であり、|P(j)|=Npである。
The above symbols are arranged as follows. Hereinafter, the number of elements of a certain set P is represented as | P |. Feature point set P (j)
Is a set having the feature point P p (j) on the scale σ j as an element, and | P (j) | = Np.

【0079】部分集合Pgj(j)はスケールσj におけ
るgj番目の部分集合であり、|Pgj(j)|=Q(g
j)である。部分集合Pgj(j)においてgj=1
,...,M0j は孤立点を要素に持つ集合である。
部分集合Pgj(j)においてgj=M0j +1
,...,M0j +M1j は曲線を構成する特徴点を
要素に持つ集合である。部分集合Pgj(j)においてg
j=M0j +M1j +1 ,...,M0j +M1j +M
j は曲面をを構成する特徴点を要素に持つ集合であ
る。
The subset P gj (j) is the gj-th subset on the scale σ j , and | P gj (j) | = Q (g
j). Gj = 1 in the subset P gj (j)
,. . . , M0 j are sets having isolated points as elements.
Gj = M0 j +1 in the subset P gj (j)
,. . . , M0 j + M1 j are sets having characteristic points constituting the curve as elements. G in the subset P gj (j)
j = M0 j + M1 j +1,. . . , M0 j + M1 j + M
2 j is a set having feature points constituting a curved surface as elements.

【0080】また、さらに以下の記号を定義する。部分
集合Pgj(j)の要素である特徴点を、特徴点P
gj(j)q と表す。ただし、q=1,2,...,Q
(gj)である。特徴点Pgj(j)q は3次元空間の点
であるから(x,y,t)の位置情報として3つの値を
持つ。
Further, the following symbols are further defined. The feature points that are the elements of the subset P gj (j) are
gj (j) Expressed as q . Here, q = 1, 2,. . . , Q
(Gj). Since the feature point P gj (j) q is a point in a three-dimensional space, it has three values as position information of (x, y, t).

【0081】この特徴点の3つの値を(Pgj(j)(x
q),Pgj(j)(yq),Pgj(j)(tq))と表
す。上記のqの順番は曲線に属する部分集合Pgj(j)
の要素であるなら、q=1が始点であり、以下順に曲線
上をつなぐ順に並んであるものとする。曲面に属する部
分集合Pgj(j)の要素については後述する。この要素
をコンパクトに表現する方法は種々考えられるが、ここ
では次のような方法を用いる。
The three values of this feature point are represented by (P gj (j) (x
q), P gj (j) (yq), P gj (j) (tq)). The order of q is a subset P gj (j) belonging to the curve.
, It is assumed that q = 1 is the starting point and is arranged in the following order on the curve. Elements of the subset P gj (j) belonging to the curved surface will be described later. There are various methods for expressing this element in a compact manner. Here, the following method is used.

【0082】孤立点だけからなるグループ、gj =1
,...,M0j 、はそのまま3次元のポジションを
データとしてもつ。図2は、3次元空間中の曲線の一例
を示す図である。図3は、図2に示す3次元空間中の曲
線を始点からの長さをパラメータとしてグラフ化した図
である。
A group consisting only of isolated points, g j = 1
,. . . , M0 j have the three-dimensional position as data as they are. FIG. 2 is a diagram illustrating an example of a curve in a three-dimensional space. FIG. 3 is a diagram in which the curve in the three-dimensional space shown in FIG. 2 is graphed using the length from the starting point as a parameter.

【0083】曲線からなるグループ、gj=M0j +1
,...,M0j +M1j 、は始点からの長さlをパ
ラメータとして〔x(l),y(l),t(l)〕をそ
れぞれ図3(A)、(B)、(C)に示すようにグラフ
に表し、この3本の線を多重解像度の分析結果とその極
値から補関しての合成方法を用いて表す。すなわち、必
要なデータはその分析から得られた特異点である。
Group consisting of curves, gj = M0 j +1
,. . . , M0 j + M1 j , and [x (l), y (l), t (l)] with the length l from the start point as a parameter as shown in FIGS. 3 (A), (B) and (C), respectively. The three lines are shown using a synthesis method supplemented from the multiresolution analysis results and their extreme values. That is, the required data is the singularity obtained from the analysis.

【0084】以上2つの場合について必要なデータを以
下にまとめる。孤立点の場合、3次元空間上の点(Pgj
(x1),Pgj(y1),Pgj(t1))が符号化され
る。
The necessary data for the above two cases are summarized below. In the case of an isolated point, a point (P gj
(X1), P gj (y1), P gj (t1)) are encoded.

【0085】曲線の場合、以下の点が符号化される。 (1)始点(Pgj(x1),Pgj(y1),Pgj(t
1)) (2) 終点(Pgj(xQ(gj)),Pgj(yQ(g
j)),Pgj(tQ(gj))
For curves, the following points are coded. (1) Starting point (P gj (x1), P gj (y1), P gj (t
1)) (2) End point (P gj (xQ (gj)), P gj (yQ (g
j)), P gj (tQ (gj))

【0086】パラメータx(l)のグラフをPgj(j)
(x)=fx (l)とした場合において、 (3)xの特異点の位置lnx (4)xの特異点の位置lnxにおける値fx (lnx
The graph of the parameter x (l) is represented by P gj (j)
In case of a (x) = f x (l ), (3) Position l nx singularities x (4) value at a position l nx singularities x f x (l nx)

【0087】パラメータy(l)のグラフをPgj(j)
(y)=fy (l)とした場合において、 (5)y特異点の位置lny (6)y特異点の位置lny における値fy (lny
The graph of the parameter y (l) is expressed as P gj (j)
When (y) = fy (l), (5) the position l ny of the y singular point (6) the value f y (l ny ) at the position l ny of the y singular point

【0088】パラメータt(l)のグラフをPgj(j)
(t)=ft (l)とした場合において、 (7)t特異点の位置lnt (8)t特異点の位置lntにおける値ft (lnt) 以上である。
The graph of the parameter t (l) is represented by P gj (j)
When (t) = f t (l), (7) the position l nt of the t singular point, and (8) the value f t (l nt ) at the position l nt of the t singular point.

【0089】図4は、3次元空間中の曲面の一例を示す
図である。図5は、図4に示した曲面についての処理を
説明する図である。曲面からなるグループ、gj =M0
j +M1j +1 ,...,M0j +M1j+M2j の場
合は、1つのグループの要素をさらにx−t平面、y−
t平面からの距離としてy=f1 (x,t)、x=f2
(y,t)という1価関数に分けて2次元静止画と同様
な圧縮技術を用いる。ただし、もともとの曲面は上記の
ような1価関数では表せないので、工夫が必要である。
FIG. 4 is a diagram showing an example of a curved surface in a three-dimensional space. FIG. 5 is a diagram for explaining the processing for the curved surface shown in FIG. Group consisting of curved surfaces, g j = M0
j + M1 j + 1,. . . , M0 j + M1 j + M2 j , the elements of one group are further added to the xt plane and y-
y = f 1 (x, t) and x = f 2 as distances from the t plane
A compression technique similar to that for a two-dimensional still image is used by dividing it into a one-valent function (y, t). However, the original curved surface cannot be represented by the single-valued function as described above, and therefore requires some contrivance.

【0090】そこで第一の実施例では、図5(A)に示
すように、まず、座標(x,t)において、微小なy成
分を有する点により、y=fy (x,t)(1)で表さ
れる曲面を構成する。ここで使われた点は元の集合から
除かれる。
Therefore, in the first embodiment, as shown in FIG. 5A, first, at a coordinate (x, t), a point having a small y component is used to obtain y = f y (x, t) ( A curved surface represented by 1) is formed. The points used here are removed from the original set.

【0091】また、図5(B)に示すように、座標
(y,t)において小さなxを持つ点によりx=f
x (y,t)(1)で表される曲面を構成し、そこで使
われた点は元の集合から除くという処理を順次繰り返す
ことにより全ての点を表す。
As shown in FIG. 5B, a point having a small x at the coordinates (y, t) indicates that x = f
A curved surface represented by x (y, t) (1) is formed, and all points are represented by sequentially repeating a process of removing points used from the original set.

【0092】このようにして1つの曲面を構成するPgj
(j)の要素が、何枚かの曲面y=fy (x,t)(k
k)とx=fx (y,t)(kk)を構成する。ただ
し、kk=1,2,...,kk(gj)とする。
P gj forming one curved surface in this way
The element of (j) is composed of several curved surfaces y = f y (x, t) (k
k) and x = f x (y, t ) constitute the (kk). Here, kk = 1, 2,. . . , Kk (gj).

【0093】この1枚1枚の曲面は静止画と同様に考え
ることができるから、この情報について静止画と同様の
圧縮処理を行うことができる。この圧縮処理の方法につ
いては後述する。この圧縮処理により、始点と曲面を構
成するのに必要なデータが得られる。
Since each curved surface can be considered in the same way as a still image, the same compression processing as that for a still image can be performed on this information. The method of this compression processing will be described later. By this compression processing, data necessary for forming the starting point and the curved surface is obtained.

【0094】情報符号化部15は、前述の特徴点の構成
する曲面や曲線あるいは孤立点の上で情報を分析し、圧
縮を行う。これらの上での圧縮を行なうことには以下の
理由がある。
The information encoding unit 15 analyzes information on a curved surface, a curve, or an isolated point constituting the above-mentioned feature point, and performs compression. The reason for performing compression on these is as follows.

【0095】すなわち、これらの特徴点では、情報変化
分析部12で分析した情報の極値を与える点であり、そ
の極値は、つながっている特徴点の上ではなだらかにし
か変化しないからである。
That is, these feature points are points that give the extreme values of the information analyzed by the information change analysis unit 12, and the extreme values change only gently on the connected feature points. .

【0096】具体的には、前述した部分集合gj(j)
を孤立点、曲線、曲面と分け、その部分集合を用いて特
徴点符号化部ではその位置(x,y,t)を符号化した
が、今回は分析結果Wx I(x,y,t;σj ),分析
結果Wy I(x,y,t;σj ),分析結果Wt
(x,y,t;σj )を同様の手法で符号化する。
Specifically, the subset P gj (j)
Is divided into an isolated point, a curve, and a curved surface, and the feature point encoding unit encodes the position (x, y, t) using the subset, but this time, the analysis result W x I (x, y, t) Σ j ), analysis result W y I (x, y, t; σ j ), analysis result W t I
(X, y, t; σ j ) is encoded by the same method.

【0097】まず、孤立点については、そこでの分析結
果Wx I(x,y,t;σj )、分析結果Wy I(x,
y,t;σj )、および分析結果Wt I(x,y,t;
σj)を情報とする。
First, for the isolated point, the analysis result W x I (x, y, t; σ j ) and the analysis result W y I (x,
y, t; σ j ) and the analysis result W t I (x, y, t;
Let σ j ) be information.

【0098】また、曲線であるが、始点からの長さlを
パラメータに取り、分析結果Wx I(x,y,t;
σj )、分析結果Wy I(x,y,t;σj )、および
分析結果Wt I(x,y,t;σj )のグラフを考えこ
の3つの関数の圧縮を考える。前述の特徴点符号化と同
様に、多重解像度の分析とその極値による圧縮はその一
つの例である。
Also, as for the curve, the length l from the starting point is taken as a parameter, and the analysis result W x I (x, y, t;
σ j ), the analysis result W y I (x, y, t; σ j ), and the analysis result W t I (x, y, t; σ j ), and consider the compression of these three functions. As with the feature point coding described above, multi-resolution analysis and its extreme value compression are one example.

【0099】また、曲面上の点の情報の圧縮には、特徴
点分析の時に用いたx−t平面、およびy−t平面から
の距離の関数として表した分割の方法を用いることがで
きる。
For the compression of point information on a curved surface, a division method expressed as a function of the distance from the xt plane and the yt plane used in the feature point analysis can be used.

【0100】すなわち、y=f1 (x ,t)の点にお
ける分析結果Wx I(x,y,t;σj )、分析結果W
y I(x,y,t;σj )、および、分析結果Wt
(x,y,t;σj )を(x,t)の3つの1価関数と
して扱うことにより圧縮を行うことができる。
That is, the analysis result W x I (x, y, t; σ j ) at the point y = f 1 (x, t), and the analysis result W
y I (x, y, t; σ j ) and analysis result W t I
Compression can be performed by treating (x, y, t; σ j ) as three monovalent functions of (x, t).

【0101】よって、曲面上の点の情報の圧縮は、曲面
を3つの平面として取扱い、この3つの平面について2
次元画像の圧縮を行なうことにより達成できる。例え
ば、多重解像度の分析とその極値からの補関を用いた圧
縮が考えられる。以上のように、特徴点の上での分析結
果の圧縮を行なう。
Therefore, in the compression of information on a point on a curved surface, the curved surface is treated as three planes.
This can be achieved by compressing a two-dimensional image. For example, compression using multi-resolution analysis and interpolation from its extreme values can be considered. As described above, the analysis result is compressed on the feature points.

【0102】総合符号化部16は、特徴点符号化部14
および情報符号化部15の出力データを符号化する。
The general encoding unit 16 includes the feature point encoding unit 14
And the output data of the information encoding unit 15 is encoded.

【0103】総合符号化部16は、特徴点符号化部14
および情報符号化部15の出力データの冗長度を、例え
ばランレングス符号化等により圧縮し、また、量子化の
ためのビット割当等を行う。また、必要であれば誤り訂
正のための符号化を行なう。その結果を、送信、記録す
る。
The general encoding unit 16 includes the feature point encoding unit 14
Further, the redundancy of the output data of the information encoding unit 15 is compressed by, for example, run-length encoding or the like, and bit allocation or the like for quantization is performed. If necessary, encoding for error correction is performed. The result is transmitted and recorded.

【0104】総合再生部21は、入力されるデータにつ
いて、総合符号化部16と逆の操作を行なう。すなわ
ち、総合符号化部16で符号化された信号を、特徴点符
号化部14および情報符号化部15の出力データに戻
す。
The general reproducing section 21 performs the reverse operation of the general encoding section 16 on the input data. That is, the signal encoded by the general encoding unit 16 is returned to the output data of the feature point encoding unit 14 and the information encoding unit 15.

【0105】情報再生部22は、総合再生部21より得
られた特徴点符号化部14の出力と等価なデータから特
徴点の位置を復元し、また、情報符号化部15の出力と
等価な情報から、x−y−tの3次元空間におけるすべ
ての特徴点の位置とその位置における情報を復元する。
すなわち、特徴点符号化部14と情報符号化部15が元
画像情報について行なった圧縮の逆の処理を行う。
The information reproducing unit 22 restores the position of the feature point from the data equivalent to the output of the feature point encoding unit 14 obtained from the general reproducing unit 21 and the equivalent of the output of the information encoding unit 15 From the information, the positions of all the feature points in the xyt three-dimensional space and the information at the positions are restored.
That is, the reverse processing of the compression performed by the feature point encoding unit 14 and the information encoding unit 15 on the original image information is performed.

【0106】孤立点の情報は、3次元空間の位置情報そ
のものである。よって、孤立点の情報により、直ちに孤
立点の位置を指定できる。
The isolated point information is the position information itself in the three-dimensional space. Therefore, the position of the isolated point can be immediately specified by the information of the isolated point.

【0107】次に、曲線の情報のうち、始点の情報は孤
立点と同じであり、曲線の始点そのままの位置を表して
いる。よって、始点の情報により直ちに始点の位置を指
定できる。また、曲線のその他の部分の情報は、長さl
の関数としてx(l),y(l),t(l)の3つのグ
ラフを図2のように定義して、それぞれを1次元信号と
見て圧縮したのであるから、その逆を行なう。
Next, of the curve information, the start point information is the same as the isolated point, and represents the position of the curve start point as it is. Therefore, the position of the start point can be immediately specified by the information of the start point. The information of the other parts of the curve is the length l
Since three graphs of x (l), y (l) and t (l) are defined as shown in FIG. 2 and each of them is compressed as a one-dimensional signal, the reverse is performed.

【0108】この例では、多重解像度の分析を行ない、
その極値を符号化したのであるから、この極値から元の
1次元のグラフを再現することが可能である。これは、
補関とコンベックスプロジェクション(Convex
Projection)法を用いた方法で実行可能であ
る。
In this example, multi-resolution analysis is performed.
Since the extremum is encoded, it is possible to reproduce the original one-dimensional graph from the extremum. this is,
Supplementary and Convex Projection (Convex)
(Projection) method.

【0109】一方、同じ長さlの関数として、この特徴
点の上の情報変化分析部12の結果も符号化されている
ので、これも特徴点と同様に復元される。これらの結果
より、3次元空間上に曲線としてグループ化された特徴
点の位置とそこにおける情報変化分析部12の値が復元
できた。
On the other hand, since the result of the information change analysis unit 12 on this feature point is also encoded as a function of the same length l, this is also restored in the same manner as the feature point. From these results, the positions of the feature points grouped as a curve on the three-dimensional space and the values of the information change analysis unit 12 at those positions could be restored.

【0110】最後に、曲面としてグループ化された特徴
点とその上の情報変化分析部12の結果を復元する。特
徴点の位置はx−t平面からの距離として表され、この
位置情報が圧縮されている。
Finally, the feature points grouped as a curved surface and the result of the information change analysis unit 12 thereon are restored. The position of the feature point is represented as a distance from the xt plane, and the position information is compressed.

【0111】この圧縮データから元のx−t平面からの
距離のグラフとして表す。一方、同じパラメータ x−
tを用いて情報変化分析部12の結果を3つの2次元デ
ータと見なして、この2次元データが圧縮されている。
この圧縮されたデータも元の3つのグラフに戻す。以上
の処理により、このグラフで表されている特徴点の位置
とその上における情報変化分析部12の結果は復元でき
る。
The compressed data is represented as a graph of the distance from the original xt plane. On the other hand, the same parameter x−
The result of the information change analysis unit 12 is regarded as three two-dimensional data using t, and the two-dimensional data is compressed.
This compressed data is also returned to the original three graphs. With the above processing, the position of the feature point represented by this graph and the result of the information change analysis unit 12 thereon can be restored.

【0112】符号化の時に繰り返したようにx−t、y
−tをパラメータとするグラフ表現として、すべての曲
面としてグループ化されていた特徴点の3次元空間上の
位置と、その特徴点の上の情報変化部の結果を復元する
ことができる。以上の操作により、x−y−tの3次元
空間上の特徴点の位置とその位置における情報変化分析
部12の分析結果を全て復元したことになる。
Xt, y, as repeated at the time of encoding
As a graph expression using −t as a parameter, it is possible to restore the positions in the three-dimensional space of the feature points grouped as all the curved surfaces and the result of the information change part on the feature points. By the above operation, the positions of the feature points on the xyt three-dimensional space and the analysis results of the information change analysis unit 12 at the positions are all restored.

【0113】元画像再生部23は、以上に述べた処理に
よって得られた情報変化分析部12の分析結果の極値の
情報に基づき、それを補関近似し、x−y−tの3次元
空間全体での情報変化分析部12の結果を復元し、それ
に式19、20、21の逆変換を行ない元のx−y−t
の3次元データを復元する。
Based on the extreme value information of the analysis result of the information change analyzing unit 12 obtained by the above-described processing, the original image reproducing unit 23 performs supplementary approximation of the extreme value information, and performs three-dimensional x-y-t The result of the information change analysis unit 12 in the entire space is restored, and the inverse transformation of Expressions 19, 20, and 21 is performed on the result to obtain the original xyt
Is restored.

【0114】ここでは、コンベックスプロジェクション
法を用いて補関と逆変換を何回か繰り返して収束させ
る。この補間と逆変換の方法については後述する。ま
ず、特徴点からの補関は説明の便宜上のため、(x,
y,t)の方向に対して独立に行なう場合について述べ
る。
Here, the convergence is performed by repeating the interpolation and the inverse transformation several times using the convex projection method. The method of the interpolation and the inverse conversion will be described later. First, the supplementation from the feature point is (x,
The case where the operation is performed independently in the directions of (y, t) will be described.

【0115】すなわち、x方向にすべてのyとすべての
tに対して全部でyt本の1次元データと見なし、極値
における分析結果の分析結果Wx I(x,y,t;
σj )を用いて、後述する方法により、その点を極値と
するような射影を取る。
That is, it is assumed that all y and all t in the x direction are yt one-dimensional data, and the analysis result W x I (x, y, t;
Using σ j ), a projection is performed so that the point becomes an extreme value by a method described later.

【0116】y方向とt方向に対しても同様に行なう。
得られた近似データを式32で定義された方法で逆変換
を行ない、再び式19、20、21で定義された方法で
元の分析空間に射影する。
The same applies to the y direction and the t direction.
The obtained approximate data is inversely transformed by the method defined by Expression 32, and is again projected onto the original analysis space by the method defined by Expressions 19, 20, and 21.

【0117】この操作を数回繰り返して分析結果Wx
(x,y,t; σj )、分析結果Wy I(x,y,t;
σj )、分析結果Wt I(x,y,t; σj )へ収束さ
せる。最後に逆変換を行ないI(x,y,t) を復元す
る。逆変換は次のフィルターを分析結果に畳み込めばよ
い。
By repeating this operation several times, the analysis result W x I
(X, y, t; σ j ), analysis result W y I (x, y, t;
σ j ) and converge on the analysis result W t I (x, y, t; σ j ). Finally, inverse transformation is performed to restore I (x, y, t). The inverse transformation can be performed by convolving the next filter with the analysis result.

【数28】 [Equation 28]

【数29】 (Equation 29)

【数30】 ただし、[Equation 30] However,

【数31】 である。(Equation 31) It is.

【0118】ここで、式中の‘G x (u,v,w;
σj )、‘Gy (u,v,w;σj )、‘Gt (u,
v,w;σj )は、それぞれ、 x (u,v,w;
σj )、Gy (u,v,w;σj )、Gt (u,v,
w;σj )のフーリエ変換を表し、式中の記号の上部に
付した横線は複素共役を表す。
Here, 'G x (u, v, w;
σ j ), 'G y (u, v, w; σ j ),' G t (u,
v, w; σ j ) are G x (u, v, w;
σ j ), G y (u, v, w; σ j ), G t (u, v,
w; σ j ) represents the Fourier transform, and the horizontal line above the symbol in the equation represents the complex conjugate.

【0119】信号I(x,y,t) は上式で定義される
逆変換のフィルターを用いて次の式で求められる。
The signal I (x, y, t) is obtained by the following equation using the inverse conversion filter defined by the above equation.

【数32】 最後に、DC成分を加えて元の動画像Io (x,y,
t) を得る。
(Equation 32) Finally, a DC component is added to the original moving image Io (x, y,
t) is obtained.

【数33】 このようにして元画像情報Io (x,y,t) を復元す
ることができる。
[Equation 33] In this way, the original image information Io (x, y, t) can be restored.

【0120】以下、情報符号化部15における特徴点が
曲線を構成した場合のように1次元信号を圧縮数方法の
例と、情報再生部22におけるその1次元信号の補間と
逆変換の方法について説明する。以下、対象とする1次
元信号をf0 (x)とする。
Hereinafter, an example of a method of compressing a one-dimensional signal as in the case where the characteristic points in the information encoding unit 15 form a curve, and a method of interpolation and inverse conversion of the one-dimensional signal in the information reproducing unit 22 will be described. explain. Hereinafter, the target one-dimensional signal is defined as f 0 (x).

【0121】図6は、1次元信号とみなされる情報を符
号化する装置の構成を示す図である。図6において、低
周波検出回路51は、入力された信号fo (x)からそ
の低周波成分の信号S(jJ)(x)をフィルタリングする
ための畳み込み演算を行う。
FIG. 6 is a diagram showing a configuration of an apparatus for encoding information regarded as a one-dimensional signal. In FIG. 6, a low-frequency detection circuit 51 performs a convolution operation for filtering a signal S (jJ) (x) of a low-frequency component from an input signal f o (x).

【0122】1次微分型分析回路52は、減算回路15
において元の信号fo (x)から低周波検出回路51で
抽出された低周波成分信号S(jJ)(x)を減算した結果
である信号f(x)(f(x)=fo (x)−S
(jJ)(x))が入力され、この入力された信号について
1回微分を行う形式の(1次微分型の)多重解像度の分
析を行う。ただし、添字jJ は後述する多重解像度の最
も大きなスケールを示すインデックスである。
The primary differential analysis circuit 52 includes a subtraction circuit 15
Low-frequency component signal extracted from the original signal f o (x) in the low frequency detection circuit 51 in S (jJ) is a result of subtracting (x) signal f (x) (f (x ) = f o ( x) -S
(jJ) (x)) is input, and the input signal is subjected to one-time differentiation to perform (first-order differential type) multi-resolution analysis. Here, the suffix jJ is an index indicating the largest scale of multiple resolution described later.

【0123】2次微分型分析回路53は、上記信号f
(x)が入力され、この入力された信号について2回微
分を行う形式の(2次微分型の)多重解像度の分析を行
う。
The secondary differential analysis circuit 53 outputs the signal f
(X) is input, and a multi-resolution (secondary differential type) analysis is performed in which the input signal is differentiated twice.

【0124】特徴点検出部54は、1次微分型分析回路
52の出力信号G1j f(x)、および2次微分型分析
回路53の出力信号G2j f(x)を用いて、その特徴
的な(重要な)点 jn を決定する。ただし、ここで、
j= j1,...,jJ は多重解像度のスケール2j
のj 、また、n= 1 ,2 ,3 ,... は重要
な点を小さい順に並べたインデックスである。
The characteristic point detecting section 54 uses the output signal G 1 j f (x) of the primary differential analysis circuit 52 and the output signal G 2 j f (x) of the secondary differential analysis circuit 53 to obtain the characteristic. specific determining (important) point j X n. However, here:
j = j1,. . . , JJ are the multi-resolution scale 2 j
J, and n = 1, 2, 3,. . . Is an index in which important points are arranged in ascending order.

【0125】減算回路55は、図中に(+)で示す入力
から入力された信号から(−)で示す信号から入力され
た信号をディジタル演算により減算する。なお、減算回
路55の出力データについても圧縮を行い、この圧縮後
のデータを情報再生部22側で伸長して加算回路65に
入力するように構成してもよい。
The subtraction circuit 55 digitally subtracts a signal input from a signal indicated by (−) from a signal input from an input indicated by (+) in the figure. The output data of the subtraction circuit 55 may also be compressed, and the compressed data may be expanded on the information reproducing unit 22 side and input to the addition circuit 65.

【0126】図7は、1次元信号とみなされる情報を符
号化したものから1次元信号を合成する装置の構成を示
す図である。図7において、補間推定部61は、符号化
されたデータから信号G1j f(x)と信号G2j
(x)を補関推定する。
FIG. 7 is a diagram showing the configuration of an apparatus for synthesizing a one-dimensional signal from information obtained by encoding information regarded as a one-dimensional signal. In FIG. 7, an interpolation estimating unit 61 calculates a signal G1 jf (x) and a signal G2 jf from encoded data.
(X) is supplementarily estimated.

【0127】逆変換部62は、信号G1j f(x)と信
号G2j f(x)の補関データ‘G1j f(x)と‘G
j f(x)を用いて、元の信号f(x)を復元信号
‘f(x)へ逆変換する。
[0127] inverse transformation unit 62, the signal G1 j f (x) and the signal G2 j f Hoseki data 'G1 j f (x) and' G of (x)
Using 2 j f (x), the original signal f (x) is inversely transformed into a restored signal f (x).

【0128】1次微分型分析回路63は、繰り返し計算
を用いて補関データ‘G1j f(x)を求めるためのロ
ーカルエンコーダである。2次微分型分析回路64は、
繰り返し計算を用いて補間データ‘G2j f(x)を求
めるためのローカルエンコーダである。加算回路65
は、入力される2つの信号をディジタル演算により加算
する。
The primary differential analysis circuit 63 is a local encoder for obtaining supplementary data 'G1 j f (x) by using iterative calculation. The second differential analysis circuit 64
This is a local encoder for obtaining interpolation data 'G2 j f (x) using iterative calculation. Adder circuit 65
Adds two input signals by digital operation.

【0129】1次微分型分析回路63および2次微分型
分析回路64の出力はそれぞれ信号{G1j f(x)}
および信号{G2j f(x)}として補間推定部61に
戻される。この演算が何回かの繰り返された後、最終的
に‘f(x)が求められる。最後に低周波検出回路51
の出力信号S(jJ)(x)がこの最終的な‘f(x)に加
えられてfo (x)の復元信号‘fo (x)が出力され
る。
Outputs of the primary differential analysis circuit 63 and the secondary differential analysis circuit 64 are signals {G1 j f (x)}, respectively.
And the signal {G2 j f (x)} is returned to the interpolation estimating unit 61. After this operation is repeated several times, 'f (x) is finally obtained. Finally, the low frequency detection circuit 51
The output signal S (jJ) f o (x ) is the final 'recovery signal added to f (x) by f o (x)' (x ) is output.

【0130】以下、1次元信号とみなされる情報を符号
化する装置の動作を説明する。低周波検出回路51は、
入力信号信号fo (x)の低周波成分を抽出し、信号S
(jJ)(x)を減算回路55、および加算回路65に入力
する。
The operation of the apparatus for encoding information regarded as a one-dimensional signal will be described below. The low frequency detection circuit 51
The low frequency component of the input signal signal f o (x) is extracted and the signal S
(jJ) (x) is input to the subtraction circuit 55 and the addition circuit 65.

【0131】ここで、低周波検出回路51においては、
多重解像度法による信号分析に使用されるフィルターの
内、最も粗い解像度のものと同じスケールのスムーシン
グフィルターの畳み込み演算が行われ、低周波成分S
(jJ)(x)が検出される。具体的には、スムーシング関
数をガウス型の関数G0(jJ)(x)とする。
Here, in the low frequency detection circuit 51,
Among the filters used for signal analysis by the multi-resolution method, a convolution operation of a smoothing filter having the same scale as that of the coarsest resolution is performed, and the low-frequency component S
(jJ) (x) is detected. More specifically, the smoothing function is a Gaussian function G0 (jJ) (x).

【0132】すなわち、この関数G0(jJ)(x)は次式
で表され、
That is, this function G0 (jJ) (x) is expressed by the following equation:

【数34】 また、ここで(σ(jJ)= 2jJ)とすると、低周波成分
(jJ)(x)は次式で表される。
(Equation 34) If (σ (jJ) = 2 jJ ), the low frequency component S (jJ) (x) is expressed by the following equation.

【数35】 上式で、数式中に付された符号* は畳み込みを示す。(Equation 35) In the above equation, the sign * added to the equation indicates convolution.

【0133】減算回路55は、信号fo (x)から信号
(jJ)(x)を減算し、信号f(x)として1次微分型
分析回路52および2次微分型分析回路53に入力す
る。
The subtraction circuit 55 subtracts the signal S (jJ) (x) from the signal f o (x), and inputs the signal S (jJ) (x) to the primary differential analysis circuit 52 and the secondary differential analysis circuit 53 as a signal f (x). I do.

【0134】以下、1次微分型分析回路52の動作につ
いて説明する。1次微分型分析回路52においては、入
力された信号f(x)についてディジタル演算を行い、
1次微分型の分析フィルターG1j (x)を使用した多
重解像度の分析が行われる。
The operation of the primary differential analysis circuit 52 will be described below. The primary differential analysis circuit 52 performs digital operation on the input signal f (x),
Multi-resolution analysis using a first-order differential type analysis filter G1 j (x) is performed.

【0135】ここで、分析フィルターG1j (x)の特
性は、次式で表される。
Here, the characteristic of the analysis filter G1 j (x) is expressed by the following equation.

【数36】 この分析フィルターG1j (x)を使用して、次式の演
算を行う。
[Equation 36] The following calculation is performed using the analysis filter G1 j (x).

【数37】 ただし、(式37)の演算は各解像度j=j1
,.... ,jJ について行われる。
(37) However, the calculation of (Equation 37) is performed for each resolution j = j1
,. . . , JJ.

【0136】以下、2次微分型分析回路53の動作につ
いて説明する。2次微分型分析回路53においては、入
力された信号f(x)についてディジタル演算を行い、
2次微分型の分析フィルターG2j (x)を使用した多
重解像度の分析が行われる。
Hereinafter, the operation of the secondary differential analysis circuit 53 will be described. The second-order differential analysis circuit 53 performs a digital operation on the input signal f (x),
Multi-resolution analysis using a second-order differential analysis filter G2 j (x) is performed.

【0137】ここで、分析フィルターG2j (x)の特
性は、次式で表される。
Here, the characteristic of the analysis filter G2 j (x) is expressed by the following equation.

【数38】 この分析フィルターG2j (x)を使用して、次式の演
算を行う。
(38) Using the analysis filter G2 j (x), the following calculation is performed.

【数39】 ただし、(式39)の演算は各解像度j= j1
,.... ,jJ について行われる。
[Equation 39] However, the calculation of (Equation 39) is performed for each resolution j = j1
,. . . , JJ.

【0138】特徴点検出部54は、1次微分型分析回路
52および2次微分型分析回路53の出力信号G1j
(x)と信号G2j f(x)とを用いてこれらの特徴
(重要な)点を求める。
The characteristic point detecting section 54 outputs the output signals G1 jf of the primary differential analysis circuit 52 and the secondary differential analysis circuit 53.
These characteristic (important) points are obtained using (x) and the signal G2 j f (x).

【0139】ここでは、簡単に出力信号G1j f(x)
おより信号G2j f(x)の2乗和を求めその極大値を
特徴点とする。次式で示される演算を行う。
Here, the output signal G1 j f (x) is simply described.
The sum of the squares of the signal G2 j f (x) is obtained, and the maximum value is used as a feature point. The calculation represented by the following equation is performed.

【数40】 (Equation 40)

【0140】さらにこの2乗和Ej (x)の微分値を演
算し、その微分値Ej (x)’がゼロとなる点を特徴点
jn とする。この特徴点 jn における分析フィルタ
ーでの分析結果G1j f( jn )および分析結果G2
j f( jn )を求めて総合符号化部16に入力する。
Further, the differential value of the sum of squares E j (x) is calculated, and the point at which the differential value E j (x) ′ becomes zero is a feature point.
j X n . Analysis results of the analysis filters in the feature point j X n G1 j f (j X n) and analysis G2
seeking j f (j X n) input to the overall coding unit 16.

【0141】以下、補間推定部61、逆変換部62、1
次微分型分析回路63、および2次微分型分析回路64
を信号復元のための繰り返し計算の中に組み込んだ場合
について説明する。
Hereinafter, the interpolation estimating section 61, the inverse transforming sections 62, 1
Second derivative analysis circuit 63 and second derivative analysis circuit 64
Will be described in a repeated calculation for signal restoration.

【0142】まず、補間推定部61は総合符号化部16
より送られてくる各データ、つまり特徴点 jn 、分析
結果Gdj jn )、および特徴点データd
jn )を用いて、元の分析結果G1j f(x)と分
析結果G2j f(x)を補関推定する。
First, the interpolation estimating section 61 performs
More sent come each data, i.e. feature points j X n, analysis result Gd j (j X n), and feature data d
(J X n) with the original analysis result G1 j f (x) and the analysis result G2 j f (x) to Hoseki estimation.

【0143】この補間推定に使用される方法の一例とし
て、コンベックスプロジェクション法(Convex
Projection Method)がある。まず、
特徴点 jn における分析結果Gdj f( jn )と特
徴点データd(jn )を用いてG1j f( jn )と
G2j f( jn )を求める。
As an example of the method used for the interpolation estimation, a convex projection method (Convex) is used.
Projection Method). First,
Request G1 j f (j X n) and G2 j f (j X n) using the analysis result in the feature point j X n Gd j f (j X n) and the feature point data d (j X n).

【0144】ただし、(特徴点データd( jn )=
1)である場合、分析結果G1j f(x)は分析結果G
j f( jn )であり(G1j f(x)=Gdj f(
jn))、分析結果G2j f( jn )の値は0(G
j f( jn )=0)である。
[0144] However, (the feature point data d (j X n) =
1), the analysis result G1 j f (x) is the analysis result G
d j is f (j X n) (G1 j f (x) = Gd j f (
j X n)), the value of the analysis result G2 j f (j X n) is 0 (G
It is 2 j f (j X n) = 0).

【0145】上記以外(特徴点データd( jn )=
0)の場合は、分析結果Gdj f( jn )はG2j
(x)に等しく(G2j f(x)= Gdj
jn ))であり、分析結果G1j f( jn )の値
は0である(G1j f( jn )=0)である。この
2つのシーケンス、分析結果G1j f( jn )と分析
結果G2j f( jn )を独立に補関する。
[0145] other than the above (characteristic point data d (j X n) =
0), the analysis result Gd j f ( j X n ) is G 2 j f
Equal to (x) (G2 j f ( x) = Gd j f
A (j X n)), the analysis result G1 j f (the value of j X n) is 0 (G1 j f (j X n) is a = 0). The two sequences are Hoseki the analysis result G1 j f (j X n) and the analysis result G2 j f (j X n) independently.

【0146】図8は、補間推定部61等で行われる補間
推定における処理のフローチャートである。補間推定部
61では、図8に示したようなステップに従って補間を
行う。処理の概要を以下に述べる。この処理において
は、補間推定した関数を関数‘G1j f(x)および関
数‘G2j f(x)と表して以下の2つの制約を用い
る。
FIG. 8 is a flowchart of a process in interpolation estimation performed by the interpolation estimating unit 61 and the like. The interpolation estimating unit 61 performs the interpolation according to the steps as shown in FIG. The outline of the processing is described below. In this process, using two constraints below represents the function interpolated estimation function with 'G1 j f (x) and the function' G2 j f (x).

【0147】制約1;関数‘G1j f(x)および関数
‘G2j f(x)は、ある関数(信号)を分析フィルタ
ーG1j (x)および分析フィルターG2j (x)によ
り変換したものである。 制約2;関数‘G1j f(x)および関数‘G2j
(x)は、分析結果G1j f( jn )あるいは分析結
果G2j f( jn )の値をとる(通る)。
Constraint 1: Function 'G1 j f (x) and function' G2 j f (x) are obtained by transforming a certain function (signal) by analysis filter G 1 j (x) and analysis filter G 2 j (x) It is. Constraint 2: function 'G1 j f (x) and function' G2 j f
(X) takes the value of the analysis result G1 j f (j X n) or the analysis result G2 j f (j X n) ( through).

【0148】上記制約1は、逆変換部62、1次微分型
分析回路63、および2次微分型分析回路64での処理
に適用される。第2の制約が補間推定部61での処理に
適用される。
The above restriction 1 is applied to the processing in the inverse transform section 62, the first-order differential analysis circuit 63, and the second-order differential analysis circuit 64. The second constraint is applied to the processing in the interpolation estimation unit 61.

【0149】制約1について簡単に説明する。分析フィ
ルターG1j (x)(ただし、j=j1,...,jJ
)を使用して、ある関数を変換することを変換G1
その逆変換を変換G1 -1と表した場合、上記の第1の制
約は関数‘G1j f(x)についてG11 -1という変
換を施すことにあたる。
The constraint 1 will be briefly described. Analysis filter G1 j (x) (where j = j1,..., JJ
) Using a transformation G 1 ,
When the inverse transform is expressed as a transform G 1 -1 , the first constraint is to perform a transform G 1 G 1 -1 on the function 'G1 jf (x).

【0150】関数‘G2j f(x)についても同様に、
分析フィルターG2j (x)を使用して、ある関数(信
号)を変換することを変換G2 および逆変換G2 -1と表
した場合、上記の第1の制約は関数‘G2j f(x)に
ついてG2 2 -1という変換を施すことにあたる。この
操作を、関数‘G1j f(x)と関数‘G2j f(x)
について行う。具体的には後述する式51に示される処
理を行なう。
Similarly, for the function 'G2 j f (x),
If transforming a function (signal) using the analysis filter G2 j (x) is expressed as a transformation G 2 and an inverse transformation G 2 −1 , the first constraint above is that the function 'G2 j f ( This is equivalent to performing the conversion of G 2 G 2 -1 on x). This operation is referred to as a function 'G1 j f (x) and a function' G2 j f (x)
Do about. Specifically, the processing shown in Expression 51 described later is performed.

【0151】以上に述べた補間推定部61、逆変換部6
2、1次微分型分析回路63、および2次微分型分析回
路64全体の処理を、以下に各部分の処理ごとに説明す
る。以下、補間推定部61の動作を説明する。上記の第
2の制約は、補間推定部61での処理に相当する。
The interpolation estimator 61 and the inverse converter 6 described above
The overall processing of the second and first derivative analysis circuits 63 and 64 will be described below for each part. Hereinafter, the operation of the interpolation estimating unit 61 will be described. The above-described second constraint corresponds to the processing in the interpolation estimating unit 61.

【0152】まず、1次微分型の分析結果の補関から説
明する。誤差関数を次式で定義する。
First, an explanation will be given of the supplementation of the analysis result of the first-order differential type. The error function is defined by the following equation.

【数41】 この誤差関数e1j (x)は2つの特徴点 jn と特徴
j(n+1) の間の区間において、次式で表される。
[Equation 41] In this error function e1 j (x) is the interval between the point two feature j X n and the feature point j X (n + 1), is expressed by the following equation.

【数42】 ただし、A(j)はスケール毎に決められる e1
j (x)のなだらかさに関するパラメータであり、例え
ばA(j)=2j 等が用いられる。
(Equation 42) Where A (j) is determined for each scale e1
A parameter relating to the smoothness of j (x), for example, A (j) = 2 j or the like is used.

【0153】2つの未知数u1および未知数v1につい
て、以下の2式を用いて誤差関数e1j (x)を求め
る。
An error function e1 j (x) is obtained for the two unknowns u1 and v1 using the following two equations.

【数43】 [Equation 43]

【数44】 [Equation 44]

【0154】このようにして求めた未知数u1、v1を
用いて、e 1j (x)をそれぞれの区間〔 jn j
(n+1) 〕について求め、新しい補間関数を次式のように
それまでの補間関数を更新することにより求める。
Using the unknowns u1 and v1 obtained in this way, e 1 j (x) is divided into the respective sections [ j X n , j X
(n + 1) ], and a new interpolation function is obtained by updating the previous interpolation function as shown in the following equation.

【数45】 ここで、 := は更新を表す。[Equation 45] Here,: = indicates an update.

【0155】補間関数G2j f(x)に関しても同様に
新しい補間関数を求めていく。すなわち、誤差関数を次
式で定義する。
For the interpolation function G2 j f (x), a new interpolation function is similarly obtained. That is, the error function is defined by the following equation.

【数46】 この誤差関数e2j (x)は2つの特徴点 jn と特徴
j(n+1) の間の区間において、次式で表される。
[Equation 46] In this error function e2 j (x) is the interval between the point two feature j X n and the feature point j X (n + 1), is expressed by the following equation.

【数47】 ただし、A(j)はスケール毎に決められる e1
j (x)のなだらかさに関するパラメータであり、例え
ばA(j)=2j 等が用いられる。
[Equation 47] Where A (j) is determined for each scale e1
A parameter relating to the smoothness of j (x), for example, A (j) = 2 j or the like is used.

【0156】2つの未知数u2および未知数v2につい
て、以下の2式を用いて誤差関数e2j (x)を求め
る。
For the two unknowns u2 and v2, an error function e2 j (x) is obtained using the following two equations.

【数48】 [Equation 48]

【数49】 [Equation 49]

【0157】このようにして求めた誤差関数u2、v2
を用いて、誤差関数e 2j (x)をそれぞれの区間〔 j
n j(n+1) 〕について求め、新しい補間関数を次
式のようにそれまでの補間関数を更新することにより求
める。
The error functions u2, v2 thus obtained
, The error function e 2 j (x) is calculated for each interval [ j
X n , j X (n + 1) ], and a new interpolation function is obtained by updating the interpolation function up to then as shown in the following equation.

【数50】 以上述べた2種類の補間関数の更新処理を繰り返して最
終的な補間関数を求める。この補間関数は逆変換部62
に入力される。
[Equation 50] The updating process of the two types of interpolation functions described above is repeated to obtain a final interpolation function. This interpolation function is used by the inverse transform unit 62
Is input to

【0158】以下に逆変換部62の動作の説明を行う。
逆変換部62は、1次微分型と2次微分型の分析結果の
逆変換を加えることにより、すなわち、次式で表される
逆変換によりG1 とG2 とで信号空間を補いあう。ここ
で得られた信号f(x)は1次微分型分析回路63およ
び2次微分型分析回路64に入力される。
The operation of the inverse converter 62 will be described below.
The inverse transform unit 62 supplements the signal space with G 1 and G 2 by performing an inverse transform of the primary differential type and the secondary differential type analysis results, that is, by an inverse transform represented by the following equation. The signal f (x) obtained here is input to the primary differential analysis circuit 63 and the secondary differential analysis circuit 64.

【数51】 (Equation 51)

【0159】以下、1次微分型分析回路63および2次
微分型分析回路64の動作を説明する。1次微分型分析
回路63および2次微分型分析回路64においては、次
式で表される処理により、変換G1 、G2 により上記制
約2に関する演算を達成する。
The operation of the primary differential analysis circuit 63 and the secondary differential analysis circuit 64 will be described below. In the first-order differential analysis circuit 63 and the second-order differential analysis circuit 64, the processing represented by the following equation achieves the operation relating to the constraint 2 by the conversions G 1 and G 2 .

【数52】 (Equation 52)

【数53】 (Equation 53)

【0160】図6においては、補間推定部61、逆変換
部62、1次微分型分析回路63、および2次微分型分
析回路64で行われる演算処理が繰り返されることは、
1次微分型分析回路63および2次微分型分析回路64
の出力である分析結果{G1j f(x)}と分析結果
{G2j f(x)}が補間推定部61に戻っていること
で示されている。
In FIG. 6, the operation performed by the interpolation estimating unit 61, the inverse transforming unit 62, the primary differential analysis circuit 63, and the secondary differential analysis circuit 64 is repeated.
Primary differential analysis circuit 63 and secondary differential analysis circuit 64
This indicates that the analysis result {G1 j f (x)} and the analysis result {G2 j f (x)}, which are the outputs of the above, have returned to the interpolation estimating unit 61.

【0161】この分析結果G1j f(x)と分析結果G
j f(x)について、各部分において上述の式41〜
53で示される処理が繰り返す。この操作を数回繰り返
すことにより、逆変換部62において最終的な信号‘f
(x)が得られる。この信号‘f(x)は減算回路55
に入力される。
The analysis result G1 j f (x) and the analysis result G
Regarding 2 j f (x), the above-mentioned equations 41 to 41
The processing indicated by 53 is repeated. By repeating this operation several times, the final signal 'f
(X) is obtained. This signal 'f (x) is subtracted from the subtractor 55
Is input to

【0162】加算回路65において、逆変換部62から
入力された信号‘f(x)に低周波検出回路51の信号
(jJ)(x)を加えて、次式に示されるように元の信号
o(x)を復元する。
In the addition circuit 65, the signal S (jJ) (x) of the low frequency detection circuit 51 is added to the signal 'f (x) input from the inverse conversion section 62, and the original signal is obtained as shown in the following equation. Restore the signal f o (x).

【数54】 以上で信号fo (x)の復元のための処理が終了する。(Equation 54) Thus, the processing for restoring the signal f o (x) is completed.

【0163】以下、図8を参照して以上に述べた補間推
定における処理を説明する。図8において、ステップ0
1(S01)において、補間推定部61は、分析結果G
j f(x)と分析結果G2j f(x)、および繰り返
し処理の回数を定める定数LPををセットする。
The processing in the interpolation estimation described above will be described below with reference to FIG. In FIG. 8, step 0
1 (S01), the interpolation estimating unit 61 sets the analysis result G
1 j f (x), the analysis result G 2 j f (x), and a constant LP that determines the number of times of the repetition processing are set.

【0164】ステップ02(S02)において、補間推
定部61は関数‘G1j f(x)と関数‘G2j
(x)を算出して逆変換部62に入力する。関数‘G1
j f(x)と関数‘G2j f(x)は、逆変換部62に
おいて逆変換され、1次微分型分析回路63および2次
微分型分析回路64に入力される。
In step 02 (S02), the interpolation estimating unit 61 calculates the function 'G1 j f (x) and the function' G2 j f
(X) is calculated and input to the inverse transform unit 62. Function 'G1
j f (x) as a function 'G2 j f (x) is the inverse conversion in the inverse conversion unit 62, is input to the first-order differential analysis circuit 63 and the second-order differential analysis circuit 64.

【0165】また、処理の回数をカウントする変数lp
をゼロクリアする。ステップ03(S03)において、
補間推定部61は誤差関数e1j (x)と誤差関数e2
j (x)を算出する。
A variable lp for counting the number of processes
Is cleared to zero. In step 03 (S03),
The interpolation estimating unit 61 calculates the error function e1 j (x) and the error function e2
j (x) is calculated.

【0166】ステップ04(S04)において、補間推
定部61は、未知数u1、u2、v1、v2 を算出す
る。ステップ05(S05)において、補間推定部61
は関数‘G1j f(x)と関数‘G2j f(x)を更新
する。
In step 04 (S04), the interpolation estimating unit 61 calculates unknowns u1, u2, v1, and v2. In step 05 (S05), the interpolation estimation unit 61
Updates the function 'G1 j f (x) as a function' G2 j f (x).

【0167】ステップ06(S06)において、逆変換
部62は信号‘f(x)を算出する。ステップ07(S
07)において、1次微分型分析回路63および2次微
分型分析回路64は関数{‘G1j f(x)}と関数
{‘G2j f(x)}を算出し、補間推定部61に入力
する。
In step 06 (S06), the inverse converter 62 calculates the signal 'f (x). Step 07 (S
In 07), first-order differential analysis circuit 63 and the second-order differential analysis circuit 64 calculates the function { 'G1 j f (x) } a function {' G2 j f (x) }, the interpolation estimation unit 61 input.

【0168】以下、第一の実施例における本発明の動画
像分析合成装置1の本発明の変形例について述べる。実
施例では、3次元時空間データを分析して、2次元の特
徴点の集合とその特徴点の上の情報とし、その2次元デ
ータを分析して1次元ずつ落としてその構造解析を行な
い、最終的には点の情報に帰着させている。
Hereinafter, a modification of the moving image analysis / synthesis apparatus 1 according to the first embodiment of the present invention will be described. In the embodiment, three-dimensional spatio-temporal data is analyzed to obtain a set of two-dimensional feature points and information on the feature points, and the two-dimensional data is analyzed to drop one dimension at a time, and the structure is analyzed. Eventually, it is reduced to point information.

【0169】しかし、実施例中にも述べたように通常の
2次元関数あるいは1次元関数として表せる状態になれ
ば、普通のDCTやベクトル量子化による圧縮が可能で
ある。
However, as described in the embodiment, if the state can be expressed as an ordinary two-dimensional function or a one-dimensional function, compression by ordinary DCT or vector quantization is possible.

【0170】3次元のデータを分析するフィルターとし
てスムーシング関数の1回微分系を用いたが、本発明は
分析フィルターとしてこれに限らない。いかなる分析フ
ィルターを持ってきてもその逆変換あるいは近似的に逆
変換が存在するなら、その分析フィルターの結果の特異
点を用いて同様の操作が可能である。また、2つの分析
フィルターをペアで用いることにより、特異点の数を減
らす手法も本発明の分析手法に用いることが可能であ
る。
Although a one-time differential system of a smoothing function is used as a filter for analyzing three-dimensional data, the present invention is not limited to this. The same operation can be performed using the singular point of the result of the analysis filter if the inverse transformation exists or the approximate transformation exists even if any analysis filter is brought. In addition, a method of reducing the number of singularities by using two analysis filters as a pair can also be used in the analysis method of the present invention.

【0171】第一の実施例では、3次元の分析結果とし
ての孤立点と曲線、曲面をすべて用いたが重要な情報は
曲面としてのみ存在するとして、孤立点と曲線のどちら
かあるいは両方を捨てる事も考えられる。また、連結の
長さや面積あるいはその上の分析信号パワーの大きさに
スレッショルドを設定し、重要な特徴点だけを用いるこ
とも考えられる。
In the first embodiment, all the isolated points, curves, and surfaces as a three-dimensional analysis result are used. However, since important information exists only as a surface, one or both of the isolated points and the curves are discarded. Things are also possible. It is also conceivable to set a threshold on the length or area of the connection or on the magnitude of the analysis signal power thereover, and to use only important feature points.

【0172】第一の実施例では、すべてのスケールの特
徴点を独立に扱ったが、比較的細かいスケール、例えば
j=2、における構造だけを用いて他のスケールもこの
特徴点の上の分析結果を用いて圧縮をかけることも考え
られる。
In the first embodiment, the feature points of all scales are treated independently. However, only the structure at a relatively fine scale, for example, j = 2, is used, and other scales are analyzed on this feature point. It is also conceivable to apply compression using the result.

【0173】第一の実施例では、情報符号化部で曲線上
の符号化を分析結果Wx I(x,y,t;σj ),分析
結果Wy I(x,y,t; σj ),分析結果Wt
(x,y,t;σj )の3つのグラフを想定して行なっ
たが、
In the first embodiment, the information encoding unit performs encoding on the curve by analyzing the analysis result W x I (x, y, t; σ j ) and the analysis result W y I (x, y, t; σ j ), Analysis result W t I
(X, y, t; σ j )

【数55】 [Equation 55]

【数56】 [Equation 56]

【数57】 で表されるように極座標形式で表す。[Equation 57] Expressed in polar coordinate format as represented by

【0174】この角度が特徴点が構成する曲線や曲面の
法線方向と一致することを利用してMI(x,y,t;
σj )だけを符号化し、AI(x,y,t; σj )とB
I(x,y,t; σj )は特徴点の構成する曲線や曲面
から求める方法も考えられる。第一の実施例での、分析
合成結果の誤差信号を適当な圧縮手法(例えば、DCT
やベクトル量子化)で送ることは、画質の向上になる。
The fact that this angle coincides with the normal direction of the curve or curved surface formed by the characteristic points is used to make MI (x, y, t;
σ j ) only, AI (x, y, t; σ j ) and B
I (x, y, t; σ j ) may be obtained from a curve or a curved surface constituting a feature point. In the first embodiment, the error signal of the analysis / synthesis result is compressed by an appropriate compression method (for example, DCT).
Or vector quantization) improves image quality.

【0175】以下、本発明の第二の実施例について説明
する。第二の実施例においては、第一の実施例において
の特徴点検出部13、特徴点符号化部14、情報符号部
15、および情報再生部22を変更したものである。
Hereinafter, a second embodiment of the present invention will be described. In the second embodiment, the feature point detecting unit 13, the feature point encoding unit 14, the information encoding unit 15, and the information reproducing unit 22 in the first embodiment are changed.

【0176】まず、特徴点検出部13においては、式5
5の極大点を検出する。次に特徴点符号化部14におい
ては、特徴点検出部13で検出された極大値を与える点
を、第一の実施例と同様につないで、孤立点、曲線、曲
面に分類する。孤立点については、第一の実施例と同じ
く、その3次元座標を必要なデータとする。曲線につい
ては、後述の「3次元空間内の曲線の分析アルゴリズ
ム」を用いて得られる曲線群の始点と曲率とねじれ率の
特徴点を必要なデータとする。
First, in the feature point detecting section 13, the following equation (5) is used.
5 are detected. Next, in the feature point encoding unit 14, the points giving the maximum value detected by the feature point detection unit 13 are connected in the same manner as in the first embodiment, and classified into isolated points, curves, and curved surfaces. As for the isolated point, the three-dimensional coordinates are used as necessary data as in the first embodiment. Regarding the curve, the starting point of the curve group obtained using the “analysis algorithm for curves in a three-dimensional space” described later and characteristic points of curvature and torsion are used as necessary data.

【0177】次に、情報符号部15においては、以下の
ように特徴点が構成する孤立点、曲線、曲面の上で、そ
の点における分析結果を符号化する。まず、孤立点にお
いては、その点における分析結果Wx I(x,y,t;
σj)、分析結果Wy I(x,y,t;σj )、および
分析結果Wt I(x,y,t;σj )を必要なデータと
する。
Next, the information encoding unit 15 encodes an analysis result at the point on an isolated point, a curve, or a curved surface constituted by the characteristic points as described below. First, at an isolated point, the analysis result W x I (x, y, t;
σ j ), analysis results W y I (x, y, t; σ j ), and analysis results W t I (x, y, t; σ j ) are required data.

【0178】次に、曲線については、第一の実施例と同
じように、始点からの長さlをパラメータにとり、分析
結果Wx I(x,y,t;σj )、分析結果Wy
(x,y,t;σj )、および分析結果Wt I(x,
y,t;σj )の3つのグラフを1次元信号として圧縮
し、その圧縮結果を必要なデータとする。
Next, for the curve, as in the first embodiment, the analysis result W x I (x, y, t; σ j ) and the analysis result W y are taken using the length l from the starting point as a parameter. I
(X, y, t; σ j ) and the analysis result W t I (x, y
The three graphs of y, t; σ j ) are compressed as one-dimensional signals, and the compression results are used as necessary data.

【0179】次に、曲面については、情報符号部15で
得られた曲線群の上における式55の値M(x,y,
t;σj )を考え、これをそれぞれの曲線の始点からの
長さsをパラメータとする関数を考え、これを1次元信
号とみて圧縮する。この圧縮結果を必要なデータとす
る。
Next, regarding the curved surface, the value M (x, y,
t; σ j ), a function using the length s from the start point of each curve as a parameter is considered, and this is regarded as a one-dimensional signal and compressed. This compression result is used as necessary data.

【0180】以上の必要なデータは、第一の実施例と同
じく、総合符号化部16、総合再生部20を経て、情報
再生部22に入力される。情報再生部22においては、
まず特徴点の位置に関するデータから特徴点の位置が再
生される。孤立転移関するデータはその座標に関するデ
ータが送られてくるので、そのままで孤立点の位置を得
ることが可能である。
The necessary data described above is input to the information reproducing unit 22 via the general encoding unit 16 and the general reproducing unit 20 as in the first embodiment. In the information reproducing unit 22,
First, the position of the feature point is reproduced from the data on the position of the feature point. Since data relating to the coordinates of the isolated transition is sent, the position of the isolated point can be obtained as it is.

【0181】曲線に関しては、後述する「3次元空間内
の曲線の合成のアルゴリズム」を用いて曲線を構成する
特徴点の3次元空間の位置を得る。曲面に関しては、後
述する「3次元空間内の曲の合成のアルゴリズム」を
用いて、曲面を構成する特徴点の3次元空間内の位置を
得る。
With respect to the curve, the position of the characteristic point constituting the curve in the three-dimensional space is obtained by using the "algorithm for synthesizing the curve in the three-dimensional space" described later. With respect to the curved surface, obtaining a position in 3-dimensional space of the feature points by using the "algorithm of synthesis of song plane in the three-dimensional space", which will be described later, constituting a curved surface.

【0182】次に、特徴点の上の分析結果が再生され
る。孤立点の場合はそのまま分析結果に関するデータが
送られてくるので、そのままで必要な分析結果を得る。
Next, the analysis result on the feature point is reproduced. In the case of an isolated point, since the data on the analysis result is sent as it is, the necessary analysis result is obtained as it is.

【0183】曲線の場合は、始点からの長さsの関数と
して各分析結果が1次元信号として、これをさらに圧縮
したものであるから、1元の1次元信号を再生し、曲線
の始点から長さsの点にその信号の値を対応させること
で、曲線を構成する特徴点上の分析結果を得る。
In the case of a curve, each analysis result is converted into a one-dimensional signal as a function of the length s from the start point, and is further compressed. By associating the value of the signal with the point of the length s, an analysis result on the characteristic points constituting the curve is obtained.

【0184】曲面の場合は、それを構成する曲線群の上
に式55の値M(x,y,t;σj)を考え、それを圧
縮したのであるから、曲線の場合と同様にその上にM
(x,y,t;σj )を再生する。
In the case of a curved surface, the value M (x, y, t; σ j ) of equation 55 is considered on the group of curves constituting the surface, and it is compressed. M on
(X, y, t; σ j ) is reproduced.

【0185】次に、再生したM(x,y,t;σj )の
値を有する特徴点において、曲面の単位法線ベクトルを
求め、このベクトルのx成分、y成分、およびt成分を
M(x,y,t;σj )倍したものを分析結果Wx
(x,y,t;σj )、分析結果Wy I(x,y,t;
σj )、および分析結果Wt I(x,y,t;σj )と
して分析結果をえる。
Next, at the reproduced feature point having the value of M (x, y, t; σ j ), the unit normal vector of the curved surface is obtained, and the x component, y component and t component of this vector are determined by M (X, y, t; σ j ) times the analysis result W x I
(X, y, t; σ j ), analysis result W y I (x, y, t;
σ j ) and the analysis result W t I (x, y, t; σ j ).

【0186】以下に、3次元空間内の曲線の分析と合成
のアルゴリズムおよび3次元空間内の曲面の合成のアル
ゴリズムについて説明する。なお、説明の必要上、平面
上の曲線の分析と合成のアルゴリズムから説明を始め
る。
An algorithm for analyzing and synthesizing a curve in a three-dimensional space and an algorithm for synthesizing a curved surface in a three-dimensional space will be described below. Note that, for the sake of explanation, the description starts with an algorithm for analyzing and combining curves on a plane.

【0187】ここでは、2次元平面上の曲線の表現の仕
方について考える。まず、曲線をパラメータsとして2
次元平面上の位置を、
Here, how to represent a curve on a two-dimensional plane will be considered. First, a curve is set as a parameter s and 2
The position on the dimensional plane is

【数58】 とする。[Equation 58] And

【0188】仮想的に、sを時間0からtまでに動いた
距離として、s=s(t)として||p(s)||=|
|∂p(s)/ ∂s||=1 となるようにすることが
できる。一方、sにおけるp(s)の単位接ベクトルを
1 とすると、
Assuming that s is a distance moved from time 0 to t, and s = s (t), || p (s) || = |
| ∂p (s) / ∂s || = 1. On the other hand, when the unit tangent vector of p (s) in the s and e 1,

【数59】 1 (s)に垂直な単位ベクトルをe2 (s)とする。
ただし、それはe1 (s) を反時計回りに90度回転させ
たものとする。
[Equation 59] The unit vector perpendicular to e 1 (s) is e 2 (s).
However, it is assumed that e 1 (s) is rotated 90 degrees counterclockwise.

【0189】すなわち、That is,

【数60】 とすれば、[Equation 60] given that,

【数61】 と表せる。[Equation 61] Can be expressed as

【0190】一方、内積e1 (s)・e1 (s)=1を
微分すれば、
On the other hand, by differentiating the inner product e 1 (s) · e 1 (s) = 1,

【数62】 したがって、e’1 (s)・e1 (s)=0より(Equation 62) Therefore, from e ′ 1 (s) · e 1 (s) = 0,

【数63】 と表せる。このk(s)はsにおける曲線p(s)の曲
率と呼ばれる。
[Equation 63] Can be expressed as This k (s) is called the curvature of the curve p (s) at s.

【0191】これを用いて曲線p(s)はUsing this, the curve p (s) is

【数64】 [Equation 64]

【数65】 と表せる。一方、[Equation 65] Can be expressed as on the other hand,

【数66】 [Equation 66]

【数67】 であり、e2 (s)は[Equation 67] And e 2 (s) is

【数68】 より、e1 (s)から一意に求まる。[Equation 68] From e 1 (s).

【0192】ただし、上式で|x はそのベクトル成分、
y はy成分を示す。式65〜68より、初期値p(s
1 )、e1 (s1 )およびk(s)よりp(s)を決定
できることが示唆される。具体的には次のようになる。
Where | x is its vector component,
| Y indicates the y component. From Equations 65 to 68, the initial value p (s
1 ), e 1 (s 1 ) and k (s) suggest that p (s) can be determined. Specifically, it is as follows.

【0193】以下、2次元平面上の曲線の分析のアルゴ
リズムについて説明する。図9は、2次元平面上の曲線
の分析処理を示すフローチャートである。図9におい
て、ステップ11(S11)において、始点p(si
と始点p(si )における単位接線ベクトルe
i (si )をデータとして持つ。
An algorithm for analyzing a curve on a two-dimensional plane will be described below. FIG. 9 is a flowchart showing a process of analyzing a curve on a two-dimensional plane. In FIG. 9, in step 11 (S11), the starting point p (s i )
And the unit tangent vector e at the starting point p (s i )
i (s i ) as data.

【0194】ステップ12(S12)において、i=1
と設定する。ステップ13(S13)において、単位法
線ベクトルを次式により単位接線ベクトルei (si
から求める。
In step 12 (S12), i = 1
Set as In step 13 (S13), the unit normal vector is converted to the unit tangent vector e i (s i ) by the following equation.
Ask from.

【数69】 [Equation 69]

【0195】ステップ14(S14)において、si+1
とk(si )を求める。
In step 14 (S14), s i + 1
And k (s i ).

【数70】 ただし、k(s)は区間〔si+1,i 〕で一定として解
く。ステップ15(S15)において、次の点P(s
i+1 )における単位接線ベクトルe1 (si+1 )を求め
る。
[Equation 70] However, k (s) is solved as being constant in the section [s i + 1, s i ]. In step 15 (S15), the next point P (s
i + 1) obtaining a unit tangent vector e 1 (s i + 1) in the.

【数71】 [Equation 71]

【0196】ステップ16(S16)において、i=i
+1とインクリメントする。ステップ17(S17)に
おいて、データがあるか否かを判断し、データがある場
合はS13の処理に進む。
In step 16 (S16), i = i
Increment by +1. In step 17 (S17), it is determined whether or not there is data. If there is data, the process proceeds to S13.

【0197】このようにして、k(si )、i=1,
…,Nを曲線上で求める。逆にこのk(si )と初期値
を用いて元の曲線p(si )が復元できることを示す。
仮に今、si がi=1,…,Nにおいてわかっているも
のとする。
Thus, k (s i ), i = 1,
.., N are obtained on the curve. Conversely, it is shown that the original curve p (s i ) can be restored using this k (s i ) and the initial value.
It is assumed that s i is now known at i = 1,..., N.

【0198】以下、2次元平面上の曲線の合成のアルゴ
リズムを示す。図10は、2次元平面上の曲線の合成処
理を示すフローチャートである。図10において、ステ
ップ21(S21)において、初期値p(s1 )、e1
(s1 )を与える。ステップ22(S22)において、
i=1と設定する。
An algorithm for synthesizing a curve on a two-dimensional plane will be described below. FIG. 10 is a flowchart showing a process of combining curves on a two-dimensional plane. In FIG. 10, in step 21 (S21), initial values p (s 1 ) and e 1
(S 1 ). In step 22 (S22),
Set i = 1.

【0199】ステップ23(S23)において、e
2 (si+1 )を次式により求める。
In step 23 (S23), e
2 (s i + 1 ) is obtained by the following equation.

【数72】 ステップ24(S24)において、k(si )を読む。[Equation 72] In step 24 (S24), k (s i ) is read.

【0200】ステップ25(S25)において、次式で
p(si+1 )を求める。
In step 25 (S25), p (s i + 1 ) is obtained by the following equation.

【数73】 ステップ26(S26)において、次式でe
1 (si+1 )を求める。
[Equation 73] In step 26 (S26), e
1 (s i + 1 ) is obtained.

【数74】 [Equation 74]

【0201】ステップ27(S27)において、i=i
+1とインクリメントする。ステップ28(S28)に
おいて、データがあるか否かを判断し、データがある場
合はステップ23(S23)の処理に進む。
In step 27 (S27), i = i
Increment by +1. In step 28 (S28), it is determined whether or not there is data. If there is data, the process proceeds to step 23 (S23).

【0202】実際には、si はデータとして持っていな
い。k(si )の方を補関してsi+1 −si を常にコン
スタントになるようにk(s)を作っておくことで解決
できる。この場合、p(si )がサブピクセルの精度で
もとまっている場合でも対応できる。
Actually, s i does not have data. The problem can be solved by making k (s) so that s i + 1 −s i is always constant by supplementing k (s i ). In this case, it is possible to cope with the case where p (s i ) is limited to the sub-pixel accuracy.

【0203】以下、曲率の分析合成について説明する。
さて、平面上の曲線p(s)の曲率k(s)を求め、そ
れを用いて元の曲線p(s)を求める方法について説明
してきた。すでに報告した方法により、この曲率を多重
解像度分析することによりその特異点を求め、その特異
点における情報から元の曲率k(s)を求めることはで
きる。
The curvature analysis and synthesis will be described below.
By the way, the method of calculating the curvature k (s) of the curve p (s) on the plane and using it to obtain the original curve p (s) has been described. According to the method already reported, the curvature can be multi-resolution analyzed to find its singularity, and the original curvature k (s) can be obtained from the information at the singularity.

【0204】すなわち、前述の2次元平面上の曲線の分
析のアルゴリズムで求めた曲率k(s)をsに関する1
価関数とみて多重解像度による極値の解析を行い、その
点とそこの分析結果を記憶すればよい。もちろん、分析
にペアのものを用いることもできる。
That is, the curvature k (s) obtained by the above-described algorithm for analyzing a curve on a two-dimensional plane is defined as 1 with respect to s.
It is sufficient to analyze the extreme value by multi-resolution as a valence function, and store the point and the analysis result there. Of course, pairs can be used for analysis.

【0205】ここでは、3次元空間内の曲線の分析合成
を考える。ただし、これは曲線上の曲線の表現を考える
ためのものである。後述するようにこの結果は曲面を切
断曲線の特異点を別の方向に結んでできる曲線(これが
曲面上の曲線になる)に用いられる。
Here, analysis and synthesis of a curve in a three-dimensional space will be considered. However, this is for considering the expression of the curve on the curve. As will be described later, this result is used for a curve formed by connecting a singular point of a curved surface to another direction in a cutting curve (this becomes a curve on the curved surface).

【0206】曲面pp(u,v)=(x(u,v),y
(u,v),t(u,v))上に曲線pl(s)=(x
(s),,y(s),t(s))を考える。ここで曲線p
l(s)の単位接ベクトルを
The surface pp (u, v) = (x (u, v), y
Curve pl (s) = (x) on (u, v), t (u, v))
(S) ,, y (s), t (s)). Where the curve p
The unit tangent vector of l (s) is

【数75】 とすれば、これに垂直に単位ベクトルe2 (s)を選ぶ
ことができる。
[Equation 75] Then, the unit vector e 2 (s) can be selected perpendicularly to this.

【0207】e2 (s)とe1 (s)の関係は後述の曲
率で結ばれる。この接平面の法単位ベクトルをe
3 (s)と表す。ただし、
The relationship between e 2 (s) and e 1 (s) is linked by the curvature described later. Let the normal unit vector of this tangent plane be e
3 (s). However,

【数76】 ただし、×はベクトル積である。[Equation 76] Here, x is a vector product.

【0208】空間内の曲線の場合曲率k(s)を以下の
ように定義する。
In the case of a curve in space, the curvature k (s) is defined as follows.

【数77】 一方、[Equation 77] on the other hand,

【数78】 の関係が成立する。また、[Equation 78] Is established. Also,

【数79】 なる関係も成立する。[Expression 79] The following relationship also holds.

【0209】このτ(s)をねじれ率と呼ぶ。これらの
1,2,3 とその微分の間には次のような関係があ
る。
This τ (s) is called a twist ratio. The following relation between these e 1, and e 2, e 3 its differential.

【数80】 このk(s)≧0とτ(s)が与えられたとき、初期値
1 (s1 ),e2 (s1 ),e3 (s1 )がわかって
いればe1 (s),e2 (s),e3 (s)は一意に決
定できる。始点pl(s1 )とこの結果から、
[Equation 80] Given k (s) ≧ 0 and τ (s), if the initial values e 1 (s 1 ), e 2 (s 1 ), and e 3 (s 1 ) are known, e 1 (s) , E 2 (s) and e 3 (s) can be uniquely determined. From the starting point pl (s 1 ) and this result,

【数81】 として求めることができる。[Equation 81] Can be obtained as

【0210】実際には、曲線pl(s)をs=si で3
次までテイラー展開し、Bouquetの公式と呼ばれ
る次式を用いる。
In actuality, the curve pl (s) is calculated by dividing s = s i by 3
Taylor expansion is performed to the next, and the following equation called Bouquet's formula is used.

【数82】 したがって、次のようなステップで、si,k(si ),
τ(si )を求めていくことができる。
(Equation 82) Therefore, in the following steps, s i, k (s i ),
τ (s i ) can be obtained.

【0211】3次元空間内の曲線の分析のアルゴリズム 図11は、3次元空間内の曲線の分析処理のフローチャ
ートである。図11において、ステップ51(S51)
において、初期値として、始点pl(s1 ),e1 (s
1 ),e2 (s1 )をデータとして持つ。ステップ52
(S52)において、i=1と設定する。
Algorithm for Analyzing Curves in Three-Dimensional Space FIG. 11 is a flowchart of a process for analyzing curves in a three-dimensional space. In FIG. 11, step 51 (S51)
, The starting points pl (s 1 ) and e 1 (s
1 ) and e 2 (s 1 ) as data. Step 52
In (S52), i = 1 is set.

【0212】ステップ53(S53)において、次式に
よりe3 (si )を求める。
In step 53 (S53), e 3 (s i ) is obtained by the following equation.

【数83】 [Equation 83]

【0213】ステップ54(S54)において、p(s
i+1 )を読み、次式からsi+1,k(si ),τ(si
を求める。
In step 54 (S54), p (s
i + 1 ), and s i + 1, k (s i ), τ (s i )
Ask for.

【数84】 ただし、区間〔si ,si+1 〕でk’(s)=0とす
る。
[Equation 84] However, k ′ (s) = 0 in the section [s i , s i + 1 ].

【0214】ステップ55(S55)において、以下の
式によりe1 (si+1 ),e2 (si+1 )を求める。
In step 55 (S55), e 1 (s i + 1 ) and e 2 (s i + 1 ) are obtained by the following equations.

【数85】 [Equation 85]

【数86】 [Equation 86]

【0215】ステップ56(S56)において、i=i
+1とインクリメントする。ステップ57(S57)に
おいて、データがあるか否かを判断し、データがあれば
S53の処理に進む。このようにしてk(si ),τ
(si )、i=1,2,…,Nを求める。
In step 56 (S56), i = i
Increment by +1. In step 57 (S57), it is determined whether or not there is data, and if there is data, the process proceeds to S53. Thus, k (s i ), τ
(S i ), i = 1, 2,..., N are obtained.

【0216】以下、3次元空間内の曲線の合成アルゴリ
ズムについて説明する。逆に、k(si ),τ
(si )、i=1,2,…,Nと初期値から以下のよう
にしてpl(si )を復元できる。
Hereinafter, the algorithm for synthesizing the curves in the three-dimensional space will be described. Conversely, k (s i ), τ
From the initial values (s i ), i = 1, 2,..., N, pl (s i ) can be restored as follows.

【0217】図12は、3次元空間内の曲線の合成処理
を示すフローチャートである。図12において、ステッ
プ61(S61)において、初期値pl(s1 ),e1
(s1 ),e2(s1 )を与える。ステップ62(S6
2)において、i=1と設定する。
FIG. 12 is a flowchart showing a process of synthesizing a curve in a three-dimensional space. 12, in step 61 (S61), initial values pl (s 1 ) and e 1 are set.
(S 1 ) and e 2 (s 1 ). Step 62 (S6
In 2), i = 1 is set.

【0218】ステップ63(S63)において、次式に
よりe3 (si )を求める。
In step 63 (S63), e 3 (s i ) is obtained by the following equation.

【数87】 ステップ64(S64)において、k(si ),τ(s
i )を読み、si+1,k(si ),τ(si )より以下の
式を用いてpl(si+1 )を求める。
[Equation 87] In step 64 (S64), k (s i ), τ (s
i ) is read, and pl (s i + 1 ) is obtained from s i + 1, k (s i ), and τ (s i ) using the following equation.

【数88】 [Equation 88]

【0219】ステップ65(S65)において、以下の
式からe1 (si+1 ),e2 (si+1 )を求める。
In step 65 (S65), e 1 (s i + 1 ) and e 2 (s i + 1 ) are obtained from the following equations.

【数89】 [Equation 89]

【数90】 ステップ66(S66)において、i=i+1とインク
リメントとする。ステップ67(S67)において、デ
ータがあるか否かを判断して、データがある場合S63
の処理に進む。
[Equation 90] In step 66 (S66), i = i + 1 is incremented. In step 67 (S67), it is determined whether or not there is data.
Proceed to processing.

【0220】実際にはsi はデータとして持っていな
い。2次元の平面上での曲線の時と同様の事実を用いる
が、同じく、si+1 −si =constとなるようにk
(s),τ(s)をサンプリングしなおすことで解決で
きる。
[0220] s i do not have as data in practice. Use the same facts as for a curve on a two-dimensional plane, but also use k so that s i + 1 −s i = const.
The problem can be solved by re-sampling (s) and τ (s).

【0221】ここでは3次元空間内に存在する曲面をい
かに表現すべきかを考える。ただし、任意の曲面ではな
く動画像の構造符号化を念頭において話を進める。実際
に想定している対象は多重解像度で分析した特徴点がな
す曲面であり、時空間の3次元空間x−y−tである。
この空間に、
Here, how to represent a curved surface existing in a three-dimensional space will be considered. However, the discussion will proceed with a structure encoding of a moving image instead of an arbitrary curved surface in mind. The actually assumed target is a curved surface formed by feature points analyzed at multiple resolutions, and is a three-dimensional space xyt in spatiotemporal space.
In this space,

【数91】 を考える。[Equation 91] think of.

【0222】以下の概略は、この曲面をあるtで切断し
た時にできるx−y平面上の曲線と、その曲線の曲率の
特異点をt方向につないで曲線を作り、その曲線を曲率
kで表現しようとするものである。これらの曲線群から
任意のtで切断したときに現れる、曲面の切断曲線の曲
率の特異点が再現でき、ゆえに、切断曲線も再現でき
る。これらをつなげることで曲面が再構成できる。
In the following outline, a curve on the xy plane formed when this curved surface is cut at a certain t and a singular point of the curvature of the curve are connected in the t direction to form a curve. It is something to be expressed. The singularity of the curvature of the cut curve of the curved surface, which appears when the curve group is cut at an arbitrary t, can be reproduced. A curved surface can be reconstructed by connecting these.

【0223】まず、3次元空間内の1つの曲面p(u,
v)を考える。これを、t=ti で切断すると1つある
いは1つ以上の曲面の切断曲線が得られる。それぞれの
曲線はx−y平面上の曲線であるので前節の手法を用い
て始点に関する初期値と曲率の特異点情報に落とすこと
ができる。閉曲線になる場合は適当な所を始点と考え、
あとで曲率の特異点の一つを始点として設定する。その
切断曲線らの始点、終点、特異点に注目する。
First, one surface p (u,
Consider v). When this is cut at t = t i , a cutting curve of one or more curved surfaces is obtained. Since each curve is a curve on the xy plane, it can be reduced to the initial value of the starting point and the singular point information of the curvature using the method described in the previous section. If it becomes a closed curve, consider an appropriate place as the starting point,
Later, one of the singularities of curvature is set as a starting point. The start point, end point, and singular point of the cut curves are noted.

【0224】次にt=ti+1 で同様の操作を行う。その
ようにしてできたt=ti とt=ti+1 の特徴点を結
ぶ。結ぶときにはt=ti のある特徴点を中心にt=t
i+1 に近傍を設定し、そこに特徴点があればつなぎ、な
ければそれを終点とする。一方、t=ti+1 で新しく出
現した特異点もあるので、上述の操作で結合されなかっ
たt=ti+1 の特異点はそれを始点とする。
Next, the same operation is performed at t = t i + 1 . The feature points t = t i and t = t i + 1 thus formed are connected. When connecting, t = t centering on a certain feature point at t = t i
A neighborhood is set at i + 1 , and if there is a feature point there, it is connected; otherwise, it is set as the end point. On the other hand, because some newly emergent singularity t = t i + 1, singular point t = t i + 1 that were not bound by the above operation and starting it.

【0225】このようにして、曲面上に曲線を構成した
わけだが、あきらかにこれらの曲線から任意のtで切断
した時の切断曲線上の曲率の特異点は再現でき、したが
って、切断曲線も再現できる。以下具体的に次のような
ステップを用いる。
The curves are formed on the curved surface in this manner. Obviously, the singularity of the curvature on the cutting curve obtained by cutting these curves at an arbitrary t can be reproduced. it can. Hereinafter, the following steps are specifically used.

【0226】以下、3次元空間内の曲面の分析のアルゴ
リズムについて説明する。図13は、3次元空間内の曲
面の分析処理を示すフローチャートである。図13にお
いて、ステップ71(S71)において、t=t1で曲
面を切断し、できた曲線のそれぞれについて、上述の2
次元平面上の曲線の分析のアルゴリズムを用いて分析を
行う。
An algorithm for analyzing a curved surface in a three-dimensional space will be described below. FIG. 13 is a flowchart showing a process of analyzing a curved surface in a three-dimensional space. In FIG. 13, in step 71 (S71), the curved surface is cut at t = t1, and each of the resulting curves is subjected to the above-mentioned 2
Analysis is performed using an algorithm for analyzing a curve on a dimensional plane.

【0227】ステップ72(S72)において、現れた
始点と特異点をt方向の曲線の始点として記憶する。ス
テップ73(S73)において、i=1を設定する。
In step 72 (S72), the appearing start point and singular point are stored as the start point of the curve in the t direction. In step 73 (S73), i = 1 is set.

【0228】ステップ74(S74)において、t=t
i+1 で曲面を切断してできた曲線についてそれぞれ2次
元平面上の曲線の分析のアルゴリズムを用いて分析を行
う。
In step 74 (S74), t = t
Each curve formed by cutting the curved surface at i + 1 is analyzed using an algorithm for analyzing a curve on a two-dimensional plane.

【0229】ステップ75(S75)において、t=t
i で現れた始点あるいは特異点とt=ti+1 でできた始
点、特異点の位置を調べ、以下の処理を行う。 (a)近傍であればつなぐ。 (b)近傍でなく、t=ti+1 で新しく現れていたもの
があればそれを始点として記憶する。 (c)近傍でなく、t=ti は存在するものを終点とし
て記憶する。
In step 75 (S75), t = t
The starting point or singularity appearing at i and the starting point or singularity at t = t i + 1 are checked, and the following processing is performed. (A) If near, connect. (B) If there is something that newly appeared at t = t i + 1 instead of the neighborhood, store it as the starting point. (C) Store an existing point as an end point when t = t i , not in the vicinity.

【0230】ステップ76(S76)において、i=i
+1とインクリメントする。ステップ77(S77)に
おいて、データがあるか否かを判断する。データがある
場合、S74の処理に進む。
In step 76 (S76), i = i
Increment by +1. In step 77 (S77), it is determined whether or not there is data. If there is data, the process proceeds to S74.

【0231】このようにしてできたt方向への曲線を3
次元空間内の曲線の分析のアルゴリズムを用いて分析す
る。
The curve in the t direction thus formed is represented by 3
The analysis is performed using an algorithm for analyzing a curve in a dimensional space.

【0232】以下、3次元空間内の曲面の合成のアルゴ
リズムについて説明する。逆に、曲面を合成するときは
次のようなステップになる。図14は、3次元空間内の
曲面の合成処理のフローチャートを示す図である。
The following describes an algorithm for synthesizing a curved surface in a three-dimensional space. Conversely, when combining curved surfaces, the following steps are performed. FIG. 14 is a diagram illustrating a flowchart of a process of synthesizing a curved surface in a three-dimensional space.

【0233】図14において、ステップ81(S81)
において、t方向にできた曲線を3次元空間内の曲線の
合成のアルゴリズムをもちいて復元する。これにより、
すべてのt=ti における曲面の切断曲線の始点と特異
点が決定される。ステップ82(S82)において、i
=1と設定する。
In FIG. 14, step 81 (S81)
In, the curve formed in the t direction is restored using an algorithm for combining curves in a three-dimensional space. This allows
Starting point and the singularity of the cutting curve of the curved surface in all t = t i is determined. In step 82 (S82), i
= 1.

【0234】ステップ83(S83)において、t=t
i で切断した曲線の始点と特異点から切断曲線をすべて
復元する。ただし、この処理には2次元平面上の曲線の
合成のアルゴリズムをもちいる。ステップ84(S8
4)において、i=i+1とインクリメントする。ステ
ップ85(S85)において、データがあるか否かを判
断する。データがある場合はS83の処理に進む。
In step 83 (S83), t = t
Restore all cut curves from the starting point and singular point of the curve cut by i . However, this processing uses an algorithm for synthesizing a curve on a two-dimensional plane. Step 84 (S8
In 4), i = i + 1 is incremented. In step 85 (S85), it is determined whether there is data. If there is data, the process proceeds to S83.

【0235】以上述べた実施例の他、例えば変形例とし
て示したように本発明の動画像分析と合成方法およびそ
の装置は種々の構成をとることができる。以上に述べた
実施例は例示である。
In addition to the embodiments described above, the moving picture analyzing and synthesizing method and the apparatus of the present invention can have various configurations as shown in, for example, modifications. The embodiments described above are examples.

【0236】[0236]

【発明の効果】以上述べたように本発明によれば、動画
像情報について、視覚特性が輝度の急変するエッジに対
して敏感であることを考慮してその部分を忠実に再現す
る動画像分析と合成方法およびその装置を得ることがで
きる。
As described above, according to the present invention, in consideration of the fact that the visual characteristics are sensitive to edges whose luminance changes rapidly, the moving image information is faithfully reproduced with respect to the moving image information. And a synthesis method and an apparatus therefor.

【図面の簡単な説明】[Brief description of the drawings]

【図1】動画像分析合成装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of a moving image analysis / synthesis apparatus.

【図2】3次元空間中の曲線の一例を示す図である。FIG. 2 is a diagram illustrating an example of a curve in a three-dimensional space.

【図3】図2に示す3次元空間中の曲線を始点からの長
さをパラメータとしてグラフ化した図である。
FIG. 3 is a diagram in which a curve in the three-dimensional space shown in FIG. 2 is graphed using a length from a starting point as a parameter.

【図4】3次元空間中の曲面の一例を示す図である。FIG. 4 is a diagram illustrating an example of a curved surface in a three-dimensional space.

【図5】図4に示した曲面についての処理を説明する図
である。
FIG. 5 is a diagram for explaining processing on the curved surface shown in FIG. 4;

【図6】1次元信号とみなされる情報を符号化する装置
の構成を示す図である。
FIG. 6 is a diagram illustrating a configuration of an apparatus that encodes information regarded as a one-dimensional signal.

【図7】1次元信号とみなされる情報を符号化したもの
から元の1次元信号を合成する装置の構成を示す図であ
る。
FIG. 7 is a diagram illustrating a configuration of an apparatus that synthesizes an original one-dimensional signal from information obtained by encoding information regarded as a one-dimensional signal.

【図8】補間推定部等で行われる補間推定における処理
のフローチャートである。
FIG. 8 is a flowchart of a process in interpolation estimation performed by an interpolation estimation unit and the like.

【図9】2次元平面上の曲線の分析処理を示すフローチ
ャートである。
FIG. 9 is a flowchart showing a process of analyzing a curve on a two-dimensional plane.

【図10】2次元平面上の曲線の合成処理を示すフロー
チャートである。
FIG. 10 is a flowchart illustrating a process of combining curves on a two-dimensional plane.

【図11】3次元空間内の曲線の分析処理のフローチャ
ートである。
FIG. 11 is a flowchart of a process of analyzing a curve in a three-dimensional space.

【図12】3次元空間内の曲線の合成処理を示すフロー
チャートである。
FIG. 12 is a flowchart illustrating a process of combining curves in a three-dimensional space.

【図13】3次元空間内の曲面の分析処理を示すフロー
チャートである。
FIG. 13 is a flowchart illustrating a process of analyzing a curved surface in a three-dimensional space.

【図14】3次元空間内の曲面の合成処理のフローチャ
ートを示す図である。
FIG. 14 is a diagram illustrating a flowchart of a process of combining curved surfaces in a three-dimensional space.

【図15】一次元的な信号f(x)を示す図である。FIG. 15 is a diagram showing a one-dimensional signal f (x).

【符号の説明】[Explanation of symbols]

1・・・動画像分析合成装置 10・・・動画像分析装置 11・・・動画像メモリ 12・・・情報変化分析部 13・・・特徴点検出部 14・・・特徴点符号化部 15・・・情報符号化部 16・・・総合符号化部 51・・・低周波検出回路 52・・・1次微分型分析回路 53・・・2次微分型分析回路 54・・・特徴点検出部 55・・・減算回路 20・・・動画像合成装置 21・・・総合再生部 22・・・情報再生部 23・・・元画像再生部 61・・・補間推定部 62・・・逆変換部 63・・・1次微分型分析回路 64・・・2次微分型分析回路 65・・・加算回路 DESCRIPTION OF SYMBOLS 1 ... Moving image analysis / synthesis apparatus 10 ... Moving image analysis apparatus 11 ... Moving image memory 12 ... Information change analysis unit 13 ... Feature point detection unit 14 ... Feature point encoding unit 15 ··· Information coding unit 16 · · · General coding unit 51 · · · Low frequency detection circuit 52 · · · primary differential analysis circuit 53 · · · secondary differential analysis circuit 54 · feature point detection Unit 55: subtraction circuit 20: moving image synthesizing device 21: general reproduction unit 22: information reproduction unit 23: original image reproduction unit 61: interpolation estimation unit 62: inverse conversion Section 63: Primary differential analysis circuit 64: Secondary differential analysis circuit 65: Addition circuit

フロントページの続き (56)参考文献 電子情報通信学会技術報告、IE88− 112(1989−2−23)p.41−46(モデ ルを用いた3次元物体の動き認識につい て) 電子情報通信学会技術報告、NLC90 −28(1990)p.1−8(知的画像符号 化における頭部の動きと顔面の動きの動 き情報の高精度推定) 電子情報通信学会論文誌、B−I J 74−B−I[10](1991−10)p.789 −798(顔画像のモデルベース符号化に おける頭部の3次元的な動きの推定) (58)調査した分野(Int.Cl.7,DB名) H04N 7/24 - 7/68 Continuation of the front page (56) References IEICE Technical Report, IE88-112 (1989-2-23) p. 41-46 (On Recognition of Motion of 3D Object Using Model) IEICE Technical Report, NLC 90-28 (1990) p. 1-8 (High-precision estimation of motion information of head movement and face movement in intelligent image coding) Transactions of the Institute of Electronics, Information and Communication Engineers, BIJ 74-BI [10] (1991-10 ) P. 789 -798 (Estimation of three-dimensional motion of head in model-based coding of face images) (58) Fields investigated (Int.Cl. 7 , DB name) H04N 7/ 24-7/68

Claims (24)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】2次元画像が時系列的に連続する動画像に
ついて、各2次元画像の画像平面上における画像情報の
位置的変化、および時系列上における画像情報の時間的
変化を分析し、当該分析結果の特徴点を圧縮する動画像
分析装置であって、 上記画像平面上における2次元位置および時間をパラメ
ータとする第1のスムージング関数を用いて、所定の解
像度で原動画像の画像情報と畳み込み演算を行い、上記
動画像の低周波成分を算出し、原動画像の画像情報から
上記低周波成分を減じ、上記第1のスムージング関数を
上記2次元位置および時間についてそれぞれ1回微分し
た3つの第2のスムージング関数を用いて、複数の解像
度で上記低周波成分が減ぜられた画像情報と畳み込み演
算を行ない、多重解像度分析の結果を算出する分析手段
と、 上記分析結果が極大または極小となる特徴点を検出する
特徴点検出手段と、 上記検出した特徴点の、上記2次元位置および時間で指
定される3次元時空間上の位置情報を、孤立点の集合、
線の集合、または曲面の集合に分類し、上記線または上
記曲面に分類される特徴点の位置情報を、上記線または
上記曲面に対応して定義した所定の位置情報の関数に基
づいて圧縮する位置情報圧縮手段と、 上記線または上記曲面に分類される特徴点上の上記分析
結果を、上記線または上記曲面に対応して定義した所定
の分析結果の関数に基づいて圧縮する分析結果圧縮手段
と、 上記孤立点に分類される特徴点の位置情報および分析結
果、ならびに上記線または曲面に分類される特徴点の上
記圧縮した位置情報および上記圧縮した分析結果を符号
化する符号化手段とを有する動画像分析装置。
1. A moving image in which two-dimensional images are successive in a time series is analyzed for a positional change of image information on an image plane of each two-dimensional image and a temporal change of image information in a time series. A moving image analyzer for compressing feature points of the analysis result, comprising: a first smoothing function having a two-dimensional position and a time on the image plane as parameters; The convolution operation is performed to calculate the low frequency component of the moving image, the low frequency component is subtracted from the image information of the original moving image, and the first smoothing function is differentiated once with respect to the two-dimensional position and time. An analysis method that performs a convolution operation on the image information in which the low-frequency components have been reduced at a plurality of resolutions using a second smoothing function, and calculates a result of the multi-resolution analysis. A step, a feature point detecting means for detecting a feature point at which the analysis result becomes a maximum or a minimum, and position information on the three-dimensional space-time specified by the two-dimensional position and time of the detected feature point, A set of isolated points,
Classify into a set of lines or a set of surfaces, and compress the position information of the feature points classified into the line or the surface based on a function of predetermined position information defined corresponding to the line or the surface. Position information compression means, and analysis result compression means for compressing the analysis result on the feature point classified into the line or the curved surface based on a function of a predetermined analysis result defined corresponding to the line or the curved surface And encoding means for encoding the position information and analysis results of the feature points classified as the isolated points, and the compressed position information and the compressed analysis results of the feature points classified as the line or the curved surface. Moving image analyzer.
【請求項2】上記特徴点検出手段は、 上記第1のスムージング関数を上記2次元位置および時
間についてそれぞれ2回微分した3つの第2のスムージ
ング関数を用いて、複数の解像度で上記低周波成分が減
ぜられた画像情報と畳み込み演算を行い、当該畳み込み
演算の結果におけるゼロクロス点に基づいて特徴点を検
出する、請求項1に記載の動画像分析装置。
2. The method according to claim 1, wherein the feature point detecting means uses three second smoothing functions obtained by differentiating the first smoothing function twice with respect to the two-dimensional position and time, respectively, and uses the low frequency component at a plurality of resolutions. The moving image analysis apparatus according to claim 1, wherein a convolution operation is performed with the image information of which the number has been reduced, and a feature point is detected based on a zero cross point in the result of the convolution operation.
【請求項3】上記特徴点検出手段は、 上記3次元上記空間の各次元の上記分析結果の2乗和が
極値を与える点に基づいて特徴点を検出する、 請求項1に記載の動画像分析装置。
3. The moving image according to claim 1, wherein the feature point detection means detects a feature point based on a point at which a sum of squares of the analysis result of each dimension of the three-dimensional space gives an extreme value. Image analyzer.
【請求項4】上記位置情報圧縮手段は、 上記線に対応する位置情報の関数を、上記線上の所定の
始点からの長さに対する各次元の位置情報の関数とし
て、上記3次元時空間のそれぞれの次元で定義する、 請求項1に記載の動画像分析装置。
4. The three-dimensional space-time function according to claim 1, wherein the position information compression means converts a function of the position information corresponding to the line as a function of position information of each dimension with respect to a length from a predetermined starting point on the line. The moving image analyzer according to claim 1, wherein the moving image analyzer is defined by:
【請求項5】上記位置情報圧縮手段は、 上記線に対応する位置情報の関数を、上記線上の所定の
始点からの長さに対する曲率の関数、および当該長さに
対するねじれ率の関数として定義する、 請求項1に記載の動画像分析装置。
5. The position information compressing means defines a function of position information corresponding to the line as a function of a curvature with respect to a length from a predetermined starting point on the line and a function of a torsion ratio with respect to the length. The moving image analyzer according to claim 1.
【請求項6】上記位置情報圧縮手段は、 上記曲面から、上記3次元上記空間において時間次元と
上記画像平面の第1の次元とがなす第1の平面からの距
離が所定の微小範囲に含まれる第1の曲面を分割し、当
該分割後の残りの曲面から、上記3次元空間において時
間次元と上記画像平面の第2の次元とがなす第2の平面
からの距離が所定の微小範囲に含まれる第2の曲面を分
割し、当該第1の曲面および第2の曲面の分割操作を、
分割後の残りの曲面に対して順次反復して、上記曲面を
複数の上記第1の曲面および複数の上記第2の曲面に分
割し、 上記曲面に対応する位置情報の関数を、それぞれの上記
第1の曲面に対応した、上記第1の平面上の位置情報に
対する上記第1の平面からの距離の関数、および、それ
ぞれの上記第2の曲面に対応した、上記第2の平面上の
位置情報に対する上記第2の平面からの距離の関数とし
て定義する、 請求項1に記載の動画像分析装置。
6. The position information compressing means, wherein a distance from a first plane formed by a time dimension and a first dimension of the image plane in the three-dimensional space from the curved surface is included in a predetermined minute range. The first curved surface to be divided is divided, and a distance from a second plane formed by a time dimension and a second dimension of the image plane in the three-dimensional space from the remaining curved surface after the division is within a predetermined minute range. Dividing the included second curved surface, and dividing the first curved surface and the second curved surface,
The remaining curved surfaces after the division are sequentially repeated to divide the curved surface into a plurality of the first curved surfaces and a plurality of the second curved surfaces. The function of the position information corresponding to the curved surface is A function of a distance from the first plane to position information on the first plane corresponding to a first curved surface, and a position on the second plane corresponding to each of the second curved surfaces The moving image analysis device according to claim 1, wherein the moving image analysis device is defined as a function of a distance from the second plane to information.
【請求項7】上記位置情報圧縮手段は、 上記曲面を上記画像平面で切断してできる各切断線につ
いて定義される、当該切断線上の所定の始点からの距離
に対する曲率の関数を多重解像度分析し、当該分析結果
の特異点を検出し、 上記検出された特異点から、隣接した上記画像平面上の
当該特異点間の距離が所定の範囲内に含まれる特異点同
士をつないでできる複数の曲線を抽出し、 上記曲面に対応する位置情報の関数を、上記抽出した複
数の曲線上の所定の始点からの距離に対する曲率の関
数、および当該距離に対するねじれ率の関数として定義
する、 請求項1に記載の動画像分析装置。
7. The position information compressing means performs a multi-resolution analysis on a function of curvature, which is defined for each cutting line formed by cutting the curved surface along the image plane, with respect to a distance from a predetermined starting point on the cutting line. Detecting a singular point of the analysis result, and from the detected singular point, a plurality of curves formed by connecting singular points whose distance between the adjacent singular points on the image plane is within a predetermined range. And defining a function of position information corresponding to the curved surface as a function of a curvature with respect to a distance from a predetermined start point on the plurality of extracted curves and a function of a torsion rate with respect to the distance. The moving image analyzer according to any one of the preceding claims.
【請求項8】2次元画像が時系列的に連続する動画像に
ついて、各2次元画像の画像平面上における画像情報の
位置的変化、および時系列上における画像情報の時間的
変化を分析し、当該分析結果の特徴点を圧縮する動画像
分析方法であって、 上記画像平面上における2次元位置および時間をパラメ
ータとする第1のスムージング関数を用いて、所定の解
像度で原動画像の画像情報と畳み込み演算を行い、上記
動画像の低周波成分を算出し、 原動画像の画像情報から上記低周波成分を減じ、 上記第1のスムージング関数を上記2次元位置および時
間についてそれぞれ1回微分した3つの第2のスムージ
ング関数を用いて、複数の解像度で上記低周波成分が減
ぜられた画像情報と畳み込み演算を行ない、多重解像度
分析の結果を算出し、 上記分析結果が極大または極小となる特徴点を検出し、 上記検出した特徴点の、上記2次元位置および時間で指
定される3次元時空間上の位置情報を、孤立点の集合、
線の集合、または曲面の集合に分類し、 上記線または上記曲面に分類される特徴点の位置情報
を、上記線または上記曲面に対応して定義した所定の位
置情報の関数に基づいて圧縮し、 上記線または上記曲面に分類される特徴点上の上記分析
結果を、上記線または上記曲面に対応して定義した所定
の分析結果の関数に基づいて圧縮し、 上記孤立点に分類される特徴点の位置情報および分析結
果、ならびに上記線または曲面に分類される特徴点の上
記圧縮した位置情報および上記圧縮した分析結果を符号
化する動画像分析方法。
8. For a moving image in which two-dimensional images are successive in time series, a positional change of image information on an image plane of each two-dimensional image and a temporal change of image information on a time series are analyzed. A moving image analysis method for compressing feature points of the analysis result, comprising: using a first smoothing function having parameters of a two-dimensional position and time on the image plane, using a first smoothing function with image information of a moving image at a predetermined resolution. The convolution operation is performed to calculate the low frequency component of the moving image, the low frequency component is subtracted from the image information of the original moving image, and the first smoothing function is differentiated once with respect to the two-dimensional position and time. Using a second smoothing function, a convolution operation is performed on the image information in which the low-frequency components have been reduced at a plurality of resolutions, and a result of multi-resolution analysis is calculated. A feature point at which the analysis result is a maximum or a minimum is detected, and the position information of the detected feature point on the three-dimensional spatio-temporal specified by the two-dimensional position and time is defined as a set of isolated points.
Classifying into a set of lines or a set of surfaces, compressing the position information of the feature points classified into the line or the surface based on a function of predetermined position information defined corresponding to the line or the surface. Compressing the analysis result on the feature point classified into the line or the curved surface based on a function of a predetermined analysis result defined corresponding to the line or the curved surface, A moving image analysis method that encodes point position information and analysis results, and the compressed position information and the compressed analysis results of feature points classified into the line or the curved surface.
【請求項9】上記特徴点の検出は、 上記第1のスムージング関数を上記2次元位置および時
間についてそれぞれ2回微分した3つの第2のスムージ
ング関数を用いて、複数の解像度で上記低周波成分が減
ぜられた画像情報と畳み込み演算を行い、当該畳み込み
演算の結果におけるゼロクロス点に基づいて特徴点を検
出する、 請求項8に記載の動画像分析方法。
9. The method according to claim 1, further comprising the step of detecting said characteristic points by using three second smoothing functions obtained by differentiating said first smoothing function twice with respect to said two-dimensional position and time, respectively, and using said low-frequency component at a plurality of resolutions. The moving image analysis method according to claim 8, wherein a convolution operation is performed with the image information in which is reduced, and a feature point is detected based on a zero-cross point in a result of the convolution operation.
【請求項10】上記特徴点の検出は、 上記3次元上記空間の各次元の上記分析結果の2乗和が
極値を与える点に基づいて特徴点を検出する、 請求項8に記載の動画像分析方法。
10. The moving image according to claim 8, wherein the feature point is detected based on a point at which a sum of squares of the analysis result of each dimension of the three-dimensional space gives an extreme value. Image analysis method.
【請求項11】上記位置情報の圧縮は、 上記線に対応する位置情報の関数を、上記線上の所定の
始点からの長さに対する各次元の位置情報の関数とし
て、上記3次元時空間のそれぞれの次元で定義する、 請求項8に記載の動画像分析方法。
11. The compression of the position information is performed by converting a function of the position information corresponding to the line into a function of the position information of each dimension with respect to a length from a predetermined starting point on the line. The moving image analysis method according to claim 8, wherein the moving image analysis method is defined by:
【請求項12】上記位置情報の圧縮は、 上記線に対応する位置情報の関数を、上記線上の所定の
始点からの長さに対する曲率の関数、および当該長さに
対するねじれ率の関数として定義する、 請求項8に記載の動画像分析方法。
12. The compression of the position information defines a function of the position information corresponding to the line as a function of a curvature with respect to a length from a predetermined starting point on the line and a function of a torsion rate with respect to the length. The moving image analysis method according to claim 8.
【請求項13】上記位置情報の圧縮は、 上記曲面から、上記3次元上記空間において時間次元と
上記画像平面の第1の次元とがなす第1の平面からの距
離が所定の微小範囲に含まれる第1の曲面を分割し、当
該分割後の残りの曲面から、上記3次元空間において時
間次元と上記画像平面の第2の次元とがなす第2の平面
からの距離が所定の微小範囲に含まれる第2の曲面を分
割し、当該第1の曲面および第2の曲面の分割操作を、
分割後の残りの曲面に対して順次反復して、上記曲面を
複数の上記第1の曲面および複数の上記第2の曲面に分
割し、 上記曲面に対応する位置情報の関数を、それぞれの上記
第1の曲面に対応した、上記第1の平面上の位置情報に
対する上記第1の平面からの距離の関数、および、それ
ぞれの上記第2の曲面に対応した、上記第2の平面上の
位置情報に対する上記第2の平面からの距離の関数とし
て定義する、 請求項8に記載の動画像分析方法。
13. The compression of the position information, wherein a distance from the curved surface to a first plane formed by a time dimension and a first dimension of the image plane in the three-dimensional space is included in a predetermined minute range. The first curved surface to be divided is divided, and a distance from a second plane formed by a time dimension and a second dimension of the image plane in the three-dimensional space from the remaining curved surface after the division is within a predetermined minute range. Dividing the included second curved surface, and dividing the first curved surface and the second curved surface,
The remaining curved surfaces after the division are sequentially repeated to divide the curved surface into a plurality of the first curved surfaces and a plurality of the second curved surfaces. The function of the position information corresponding to the curved surface is A function of a distance from the first plane to position information on the first plane corresponding to a first curved surface, and a position on the second plane corresponding to each of the second curved surfaces The moving image analysis method according to claim 8, wherein the information is defined as a function of a distance from the second plane with respect to information.
【請求項14】上記位置情報の圧縮は、 上記曲面を上記画像平面で切断してできる各切断線につ
いて定義される、当該切断線上の所定の始点からの距離
に対する曲率の関数を多重解像度分析し、当該分析結果
の特異点を検出し、 上記検出された特異点から、隣接した上記画像平面上の
当該特異点間の距離が所定の範囲内に含まれる特異点同
士をつないでできる複数の曲線を抽出し、上記曲面に対
応する位置情報の関数を、上記抽出した複数の曲線上の
所定の始点からの距離に対する曲率の関数、および当該
距離に対するねじれ率の関数として定義する、 請求項8に記載の動画像分析方法。
14. The method of claim 1, wherein the position information is compressed by multi-resolution analysis of a function of curvature with respect to a distance from a predetermined starting point on the cutting line, which is defined for each cutting line formed by cutting the curved surface at the image plane. Detecting a singular point of the analysis result, and from the detected singular point, a plurality of curves formed by connecting singular points whose distance between the adjacent singular points on the image plane is within a predetermined range. And defining a function of position information corresponding to the curved surface as a function of a curvature with respect to a distance from a predetermined starting point on the plurality of extracted curves and a function of a torsion rate with respect to the distance. The moving image analysis method according to the above.
【請求項15】2次元画像が時系列的に連続する動画像
の2次元画像平面上における2次元位置および時間をパ
ラメータとする第1のスムージング関数を用いて、所定
の解像度で原動画像の画像情報と畳み込み演算が行なわ
れて、上記動画像の低周波成分が算出され、 原動画像の画像情報から上記低周波成分が減ぜられ、 上記第1のスムージング関数を上記2次元位置および時
間についてそれぞれ1回微分した3つの第2のスムージ
ング関数を用いて、複数の解像度で上記低周波成分が減
ぜられた画像情報と畳み込み演算が行なわれて、多重解
像度分析の結果が算出され、 上記分析結果が極大または極小となる特徴点が検出さ
れ、 上記検出された特徴点の、上記2次元位置および時間で
指定される3次元時空間上の位置情報が、孤立点の集
合、線の集合、または曲面の集合に分類され、上記線ま
たは上記曲面に分類される特徴点の位置情報が、上記線
または上記曲面に対応して定義した所定の位置情報の関
数に基づいて圧縮され、 上記線または上記曲面に分類される特徴点上の上記分析
結果が、上記線または上記曲面に対応して定義した所定
の分析結果の関数に基づいて圧縮され、 上記孤立点に分類される特徴点の位置情報および分析結
果、ならびに上記線または曲面に分類される特徴点の上
記圧縮された位置情報および上記圧縮された分析結果が
符号化されて生成される圧縮信号から、動画像を合成す
る動画像合成装置であって、 上記符号化された圧縮信号を逆符号化する逆符号化手段
と、 上記逆符号化により再生される上記圧縮された位置情報
に基づいて、上記位置情報の関数を復元し、当該関数上
における特徴点の位置情報を復元する位置情報復元手段
と、 上記逆符号化により再生される上記圧縮された分析結果
に基づいて、上記分析結果の関数を復元し、当該関数上
における特徴点の分析結果を復元する分析結果復元手段
と、 上記復元された特徴点の位置情報および分析結果に基づ
いて上記3次元時空間上の分析結果を補完し、当該補完
した分析結果に上記低周波成分を加算し、上記第2のス
ムージング関数の逆変換関数を用いて、上記低周波成分
が加算された分析結果と畳み込み演算を行い、上記複数
の解像度における当該演算結果を合成して上記3次元時
空間上の画像情報を復元する画像情報復元手段とを有す
る動画像合成装置。
15. An image of an original moving image at a predetermined resolution by using a first smoothing function having a two-dimensional position and a time on a two-dimensional image plane of a moving image in which a two-dimensional image is continuous in time series as parameters. Information and a convolution operation are performed to calculate a low frequency component of the moving image, the low frequency component is subtracted from the image information of the original moving image, and the first smoothing function is converted to the two-dimensional position and time respectively. Using the three second smoothing functions that have been differentiated once, the convolution operation is performed on the image information in which the low-frequency component has been reduced at a plurality of resolutions, and the result of multi-resolution analysis is calculated. Is detected, and the position information of the detected feature points on the three-dimensional spatiotemporal space specified by the two-dimensional position and time is a collection of isolated points. In the case, the position information of a feature point classified into a set of lines or a set of curved surfaces and classified into the line or the curved surface is based on a function of predetermined position information defined corresponding to the line or the curved surface. The analysis result on the feature points classified into the line or the curved surface is compressed based on a function of a predetermined analysis result defined corresponding to the line or the curved surface, and is classified into the isolated point. A moving image from the compressed signal generated by encoding the position information and the analysis result of the characteristic point and the compressed position information and the compressed analysis result of the characteristic point classified into the line or the curved surface. A moving image synthesizing apparatus for synthesizing, comprising: an inverse encoding unit that inversely encodes the encoded compressed signal; and a position information of the position information based on the compressed position information reproduced by the inverse encoding. A position information restoring means for restoring a function and restoring position information of a feature point on the function, and restoring a function of the analysis result based on the compressed analysis result reproduced by the inverse encoding; Analysis result restoring means for restoring the analysis result of the feature point on the function; and complementing the analysis result on the three-dimensional space-time based on the position information and the analysis result of the restored feature point. The low-frequency component is added to the result, and a convolution operation is performed on the analysis result to which the low-frequency component is added by using an inverse transform function of the second smoothing function, and the operation result at the plurality of resolutions is synthesized. An image information restoring means for restoring image information on the three-dimensional space-time.
【請求項16】上記位置情報復元手段は、 上記線上の所定の始点からの長さに対する各次元の位置
情報の関数として、上記3次元時空間のそれぞれの次元
で定義される、上記線に対応した位置情報の関数を復元
する、 請求項15に記載の動画像合成装置。
16. The position information restoring means, as a function of position information in each dimension with respect to a length from a predetermined starting point on the line, corresponds to the line defined in each dimension of the three-dimensional space-time. The moving image synthesizing apparatus according to claim 15, wherein the function of the position information is restored.
【請求項17】上記位置情報復元手段は、 上記線上の所定の始点からの長さに対する曲率の関数、
および当該長さに対するねじれ率の関数として定義され
る、上記線に対応した位置情報の関数を復元する、 請求項15に記載の動画像合成装置。
17. The position information restoring means includes: a function of a curvature with respect to a length from a predetermined starting point on the line;
The moving image composition device according to claim 15, wherein a function of position information corresponding to the line, which is defined as a function of a torsion ratio for the length, is restored.
【請求項18】上記位置情報復元手段は、 上記3次元時空間における時間次元と上記画像平面の第
1の次元とがなす第1の平面上の位置情報に対する上記
第1の平面からの距離の関数、および上記3次元時空間
における時間次元と上記画像平面の第2の次元とがなす
第2の平面上の位置情報に対する上記第2の平面からの
距離の関数として定義される、上記曲面に対応した位置
情報の関数を復元する、 請求項15に記載の動画像合成装置。
18. The method according to claim 18, wherein the position information restoring unit calculates a distance from the first plane to position information on a first plane formed by a time dimension in the three-dimensional space and a first dimension of the image plane. A function defined as a function of a distance from the second plane to position information on a second plane defined by a time dimension in the three-dimensional space-time and a second dimension of the image plane; The moving image synthesizing apparatus according to claim 15, wherein a function of the corresponding position information is restored.
【請求項19】上記位置情報復元手段は、 複数の曲線上の所定の始点からの距離に対する曲率の関
数、および当該距離に対するねじれ率の関数として定義
される、上記曲面に対応した位置情報の関数を復元し、 当該復元された関数による複数の曲線が、上記3次元時
空間の上記画像平面によって切断されできる切断線上の
点から、当該切断線上の所定の始点からの距離に対する
曲率の関数を復元し、当該関数上における特徴点の位置
情報を復元する、 請求項15に記載の動画像合成装置。
19. The position information restoring means includes a function of a curvature with respect to a distance from a predetermined starting point on a plurality of curves, and a function of a position information corresponding to the curved surface, defined as a function of a torsion rate with respect to the distance. From a point on a cutting line that can be cut by the image plane in the three-dimensional spatiotemporal space from a point on a cutting line, the function of the curvature with respect to a distance from a predetermined starting point on the cutting line. The moving image composition device according to claim 15, wherein the position information of the feature point on the function is restored.
【請求項20】2次元画像が時系列的に連続する動画像
の2次元画像平面上における2次元位置および時間をパ
ラメータとする第1のスムージング関数を用いて、所定
の解像度で原動画像の画像情報と畳み込み演算が行なわ
れて、上記動画像の低周波成分が算出され、 原動画像の画像情報から上記低周波成分が減ぜられ、 上記第1のスムージング関数を上記2次元位置および時
間についてそれぞれ1回微分した3つの第2のスムージ
ング関数を用いて、複数の解像度で上記低周波成分が減
ぜられた画像情報と畳み込み演算が行なわれて、多重解
像度分析の結果が算出され、 上記分析結果が極大または極小となる特徴点が検出さ
れ、 上記検出された特徴点の、上記2次元位置および時間で
指定される3次元時空間上の位置情報が、孤立点の集
合、線の集合、または曲面の集合に分類され、 上記線または上記曲面に分類される特徴点の位置情報
が、上記線または上記曲面に対応して定義した所定の位
置情報の関数に基づいて圧縮され、 上記線または上記曲面に分類される特徴点上の上記分析
結果が、上記線または上記曲面に対応して定義した所定
の分析結果の関数に基づいて圧縮され、 上記孤立点に分類される特徴点の位置情報および分析結
果、ならびに上記線または曲面に分類される特徴点の上
記圧縮された位置情報および上記圧縮された分析結果が
符号化されて生成される圧縮信号から、動画像を合成す
る動画像合成方法であって、 上記符号化された圧縮信号を逆符号化し、 上記逆符号化により再生される上記圧縮された位置情報
に基づいて、上記位置情報の関数を復元し、当該関数上
における特徴点の位置情報を復元し、 上記逆符号化により再生される上記圧縮された分析結果
に基づいて、上記分析結果の関数を復元し、当該関数上
における特徴点の分析結果を復元し、 上記復元された特徴点の位置情報および分析結果に基づ
いて上記3次元時空間上の分析結果を補完し、 当該補完した分析結果に上記低周波成分を加算し、 上記第2のスムージング関数の逆変換関数を用いて、上
記低周波成分が加算された分析結果と畳み込み演算を行
い、上記複数の解像度における当該演算結果を合成して
上記3次元時空間上の画像情報を復元する動画像合成方
法。
20. An image of an original moving image at a predetermined resolution using a first smoothing function having a two-dimensional position and a time on a two-dimensional image plane of a moving image in which a two-dimensional image is continuous in a time series. Information and a convolution operation are performed to calculate a low frequency component of the moving image, the low frequency component is subtracted from the image information of the original moving image, and the first smoothing function is converted to the two-dimensional position and time respectively. Using the three second smoothing functions that have been differentiated once, the convolution operation is performed on the image information in which the low-frequency component has been reduced at a plurality of resolutions, and the result of multi-resolution analysis is calculated. Is detected, and the position information of the detected feature points on the three-dimensional spatiotemporal space specified by the two-dimensional position and time is a collection of isolated points. In the case, the position information is classified into a set of lines or a set of curved surfaces, and the position information of the feature points classified into the line or the curved surface is based on a function of predetermined position information defined corresponding to the line or the curved surface. The analysis result on the feature points classified into the line or the curved surface is compressed based on a function of a predetermined analysis result defined corresponding to the line or the curved surface, and is classified into the isolated point. A moving image from the compressed signal generated by encoding the position information and the analysis result of the characteristic point and the compressed position information and the compressed analysis result of the characteristic point classified into the line or the curved surface. A moving image combining method for combining, wherein the encoded compressed signal is inversely encoded, and a function of the position information is restored based on the compressed position information reproduced by the inverse encoding. Restoring position information of feature points on the function, restoring a function of the analysis result based on the compressed analysis result reproduced by the inverse encoding, and analyzing an analysis result of the feature point on the function Restoring, complementing the three-dimensional spatio-temporal analysis result based on the restored feature point position information and analysis result, adding the low-frequency component to the complemented analysis result, and performing the second smoothing. A moving image for performing a convolution operation with the analysis result to which the low-frequency component has been added using the inverse transformation function of the function, and combining the operation results at the plurality of resolutions to restore the image information on the three-dimensional space-time. Image composition method.
【請求項21】上記位置情報の復元は、 上記線上の所定の始点からの長さに対する各次元の位置
情報の関数として、上記3次元時空間のそれぞれの次元
で定義される、上記線に対応した位置情報の関数を復元
する、 請求項20に記載の動画像合成方法。
21. The method of restoring the position information, wherein the position information is defined as a function of position information of each dimension with respect to a length from a predetermined starting point on the line, the function corresponding to the line defined in each dimension of the three-dimensional space-time. The moving image composition method according to claim 20, wherein the function of the position information obtained is restored.
【請求項22】上記位置情報の復元は、 上記線上の所定の始点からの長さに対する曲率の関数、
および当該長さに対するねじれ率の関数として定義され
る、上記線に対応した位置情報の関数を復元する、 請求項20に記載の動画像合成方法。
22. A method for recovering the position information, comprising: a function of a curvature with respect to a length from a predetermined starting point on the line;
21. The moving image composing method according to claim 20, wherein a function of position information corresponding to the line, which is defined as a function of a torsion ratio for the length, is restored.
【請求項23】上記位置情報の復元は、 上記3次元時空間における時間次元と上記画像平面の第
1の次元とがなす第1の平面上の位置情報に対する上記
第1の平面からの距離の関数、および上記3次元時空間
における時間次元と上記画像平面の第2の次元とがなす
第2の平面上の位置情報に対する上記第2の平面からの
距離の関数として定義される、上記曲面に対応した位置
情報の関数を復元する、 請求項20に記載の動画像合成方法。
23. A method of restoring the position information, comprising: calculating a distance from the first plane to position information on a first plane formed by a time dimension in the three-dimensional space-time and a first dimension of the image plane. A function defined as a function of a distance from the second plane to position information on a second plane defined by a time dimension in the three-dimensional space-time and a second dimension of the image plane; The moving image composition method according to claim 20, wherein a function of the corresponding position information is restored.
【請求項24】上記位置情報の復元は、 複数の曲線上の所定の始点からの距離に対する曲率の関
数、および当該距離に対するねじれ率の関数として定義
される、上記曲面に対応した位置情報の関数を復元し、 当該復元された関数による複数の曲線が、上記3次元時
空間の上記画像平面によって切断されできる切断線上の
点から、当該切断線上の所定の始点からの距離に対する
曲率の関数を復元し、当該関数上における特徴点の位置
情報を復元する、 請求項20に記載の動画像合成方法。
24. A method for restoring position information, comprising: a function of a curvature with respect to a distance from a predetermined starting point on a plurality of curves; and a function of a position information corresponding to the curved surface, which is defined as a function of a torsion ratio with respect to the distance. From a point on a cutting line that can be cut by the image plane in the three-dimensional spatiotemporal space from a point on a cutting line, the function of the curvature with respect to a distance from a predetermined starting point on the cutting line. 21. The moving image composition method according to claim 20, wherein the position information of the feature points on the function is restored.
JP35693892A 1992-12-17 1992-12-22 MOVING IMAGE ANALYZING APPARATUS AND METHOD, AND MOVING IMAGE SYNTHESIS APPARATUS AND METHOD THEREOF Expired - Lifetime JP3208879B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP35693892A JP3208879B2 (en) 1992-12-22 1992-12-22 MOVING IMAGE ANALYZING APPARATUS AND METHOD, AND MOVING IMAGE SYNTHESIS APPARATUS AND METHOD THEREOF
US08/426,921 US6195461B1 (en) 1992-12-17 1995-04-21 Dynamic image processing apparatus and method
US08/723,371 US6009200A (en) 1992-12-17 1996-09-30 Dynamic image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35693892A JP3208879B2 (en) 1992-12-22 1992-12-22 MOVING IMAGE ANALYZING APPARATUS AND METHOD, AND MOVING IMAGE SYNTHESIS APPARATUS AND METHOD THEREOF

Publications (2)

Publication Number Publication Date
JPH06197325A JPH06197325A (en) 1994-07-15
JP3208879B2 true JP3208879B2 (en) 2001-09-17

Family

ID=18451534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35693892A Expired - Lifetime JP3208879B2 (en) 1992-12-17 1992-12-22 MOVING IMAGE ANALYZING APPARATUS AND METHOD, AND MOVING IMAGE SYNTHESIS APPARATUS AND METHOD THEREOF

Country Status (1)

Country Link
JP (1) JP3208879B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041886A (en) * 2004-07-27 2006-02-09 Sony Corp Information processor and method, recording medium, and program
CN115316982A (en) * 2022-09-02 2022-11-11 中国科学院沈阳自动化研究所 Muscle deformation intelligent detection system and method based on multi-mode sensing

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会技術報告、IE88−112(1989−2−23)p.41−46(モデルを用いた3次元物体の動き認識について)
電子情報通信学会技術報告、NLC90−28(1990)p.1−8(知的画像符号化における頭部の動きと顔面の動きの動き情報の高精度推定)
電子情報通信学会論文誌、B−I J74−B−I[10](1991−10)p.789−798(顔画像のモデルベース符号化における頭部の3次元的な動きの推定)

Also Published As

Publication number Publication date
JPH06197325A (en) 1994-07-15

Similar Documents

Publication Publication Date Title
AU687325B1 (en) Method and apparatus of inputting and outputting color pictures and continually-changing tone pictures
Thanou et al. Graph-based compression of dynamic 3D point cloud sequences
KR100365555B1 (en) Image encoding / decoding device
US5689306A (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
US5870502A (en) System and method for a multiresolution transform of digital image information
JPH08265781A (en) Method and apparatus for determining movement vector
JP2008537391A (en) Apparatus and method for processing video data
US6571142B1 (en) Data processing apparatus, data processing method, and medium
EP1555833B1 (en) Method and apparatus for motion vector field encoding
CN112866694A (en) Intelligent image compression optimization method combining asymmetric volume block and condition context
Dubois Motion-compensated filtering of time-varying images
US5802211A (en) Method and apparatus for transmitting and utilizing analog encoded information
US5960118A (en) Method for 2D and 3D images capturing, representation, processing and compression
US6205253B1 (en) Method and apparatus for transmitting and utilizing analog encoded information
US6009200A (en) Dynamic image processing apparatus and method
JP3208879B2 (en) MOVING IMAGE ANALYZING APPARATUS AND METHOD, AND MOVING IMAGE SYNTHESIS APPARATUS AND METHOD THEREOF
JP3764494B2 (en) Moving image analysis and synthesis equipment
JP3120664B2 (en) Image encoding device, image decoding device
JP3890638B2 (en) Image information conversion apparatus and method
JP2988821B2 (en) Visual weighted quantizer
US6195461B1 (en) Dynamic image processing apparatus and method
JP3663645B2 (en) Moving image processing apparatus and method
CN109951705B (en) Reference frame synthesis method and device for vehicle object coding in surveillance video
JP3584327B2 (en) Image signal analysis method and apparatus, and image signal synthesis method and apparatus
JPH0779453A (en) Picture information coder and decoder

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080713

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 12