JPH07123409A - Moving image analysing and synthesizing device - Google Patents

Moving image analysing and synthesizing device

Info

Publication number
JPH07123409A
JPH07123409A JP26665093A JP26665093A JPH07123409A JP H07123409 A JPH07123409 A JP H07123409A JP 26665093 A JP26665093 A JP 26665093A JP 26665093 A JP26665093 A JP 26665093A JP H07123409 A JPH07123409 A JP H07123409A
Authority
JP
Japan
Prior art keywords
moving image
curved surface
image data
information
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP26665093A
Other languages
Japanese (ja)
Other versions
JP3764494B2 (en
Inventor
Masahiro Fujita
雅博 藤田
Hitoshi Sato
仁 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP26665093A priority Critical patent/JP3764494B2/en
Publication of JPH07123409A publication Critical patent/JPH07123409A/en
Application granted granted Critical
Publication of JP3764494B2 publication Critical patent/JP3764494B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide the moving image analysing and synthesizing device for efficiently encoding moving image data with picture quality not visually inferior. CONSTITUTION:The moving image data changing with time are handled as the three-dimensional spatial image data of a two-dimensional plane x-y and a time base direction. An information change analysis part 12 analyzes the three-dimensional change of the original moving image data. A feature point detection part 13 extracts a feature point by calculating the maximal and minimal values of the analyzed result. A curved surface is provided by linking the feature points. A feature point encoding part 14 encodes the feature points. An information encoding part 15 analyzes and compresses the information on the curved surface composed of the feature points. A total encoding part 16 encodes the data of the feature point encoding part 14 and the information encoding part 15. A synthesizing part 20 restores the original moving images by performing the opposite processing.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、たとえば、画像記録、
通信などの分野で利用される画像処理および符号化処理
を行う装置とその方法に関するものであり、特に、効率
のよい動画像データを符号化可能な動画像分析合成装置
に関する。
BACKGROUND OF THE INVENTION The present invention relates to, for example, image recording,
The present invention relates to an apparatus and method for performing image processing and encoding processing used in fields such as communication, and more particularly to a moving image analysis / synthesis apparatus capable of efficiently encoding moving image data.

【0002】[0002]

【従来の技術】効率のよい画像圧縮の方法は数多く考え
られているが、依然として、画質、圧縮率をさらに高め
なければならないという要請がある。2次元静止画像に
関しては、人間の視覚特性が輝度の急変するエッジに対
して敏感であることを考慮して、そのエッジ部分を忠実
に再現する試みがされている。しかしながら、動画像に
関しては、まだそのような試みを行ったことは知られて
いない。したがって、動画像に対しても効率の画像圧縮
技術を開発することが望まれている。
2. Description of the Related Art Although many efficient image compression methods have been considered, there is still a demand for further improvement in image quality and compression rate. Regarding a two-dimensional still image, an attempt has been made to faithfully reproduce the edge portion of the two-dimensional still image in consideration of the fact that human visual characteristics are sensitive to the edge where the brightness changes abruptly. However, it has not yet been known that such an attempt was made for moving images. Therefore, it is desired to develop an efficient image compression technique for moving images.

【0003】動画像においては、空間2次元信号を時間
方向に並べることにより3次元時空間画像として見なす
ことができる。人間の視覚特性はこの時空間画像に対し
て通常の空間方向のエッジ検出と並行して時間方向へ動
き検出も行なっている。特に動くエッジに対しては敏感
な反応が視覚情報処理を司る神経細胞で観測されてい
る。したがって、空間エッジ検出が視覚にとって重要で
あったのと同様に動くエッジも重要であることが示唆さ
れる。従来の動き検出を用いた画像圧縮は、動き検出を
何らかの方法で行なって、それを用いて時間方向に予測
を行ない、その誤差の符号化を行っている。
A moving image can be regarded as a three-dimensional space-time image by arranging spatial two-dimensional signals in the time direction. As for human visual characteristics, motion detection is also performed in the temporal direction in parallel with the normal edge detection in the spatial direction for this spatiotemporal image. Sensitive reactions, especially to moving edges, have been observed in nerve cells that control visual information processing. Therefore, it is suggested that moving edges are as important as spatial edge detection was for vision. In conventional image compression using motion detection, motion detection is performed by some method, the prediction is performed in the time direction using the method, and the error is encoded.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、この方
法では先に述べた動くエッジに注目してそこの情報を忠
実に送るという技術ではないから、動画像に対して充分
高い効率の符号化が達成されていない。
However, since this method is not a technique of paying attention to a moving edge and transmitting the information there faithfully as described above, a sufficiently high efficiency encoding is achieved for a moving image. It has not been.

【0005】したがって、本発明は、動画像に対して高
画質で高い圧縮率を達成することが可能な画像圧縮技術
とそれを用いた装置を提供することを目的とする。つま
り、本発明は、視覚的に遜色のない空間方向、時間方向
への画像の拡大あるいは補間および視覚的に遜色のない
画質で高い圧縮率を達成できる動画像分析合成装置を提
供することを目的とする。
Therefore, it is an object of the present invention to provide an image compression technique capable of achieving a high image quality and a high compression ratio for a moving image, and an apparatus using the image compression technique. That is, it is an object of the present invention to provide a moving image analysis / synthesis apparatus capable of visually expanding and interpolating an image in a spatial direction and a temporal direction, and achieving a high compression rate with a visually comparable image quality. And

【0006】[0006]

【課題を解決するための手段】本発明は、上述した課題
を解決し、上記目的を達成するため、本発明の動画像分
析合成装置は、動画像を分析した圧縮符号化する動画像
分析装置と、符号化された信号を復号する動画像合成装
置とから構成される。動画像分析装置は、時間的に変化
する元の動画像データを二次元平面および時間軸方向の
3次元空間に分布する3次元空間画像データとして分析
して、特徴点を抽出する手段と、該抽出された特徴点を
3次元に広がる曲面として表す手段と、曲面の切断曲線
から曲率の極値を算出する手段と、該曲率の極値を時間
軸方向に連結した曲線と基準となる画像データの切断曲
線とで曲面を表す手段と、該曲面のデータを圧縮する手
段とを具備する。動画像合成装置は、上記動画像分析装
置から符号化された信号を受入れ、動画像分析装置にお
ける処理と実施的に逆の処理を行い、前記圧縮されたデ
ータを相似補間して元の動画像データを復元する。
In order to solve the above-mentioned problems and to achieve the above-mentioned object, the present invention provides a moving image analysis / synthesis apparatus which compresses and encodes a moving image for compression coding. And a moving picture synthesizing device for decoding the encoded signal. The moving image analysis apparatus analyzes original moving image data that changes with time as three-dimensional space image data distributed in a two-dimensional plane and a three-dimensional space in the time axis direction, and means for extracting feature points. A means for expressing the extracted feature points as a curved surface that spreads in three dimensions, a means for calculating an extreme value of curvature from a cutting curve of the curved surface, a curve connecting the extreme values of curvature in the time axis direction, and image data serving as a reference. And a means for compressing the data of the curved surface. The moving image synthesizing device receives the coded signal from the moving image analyzing device, performs a process which is practically the reverse of the process in the moving image analyzing device, and performs similar interpolation on the compressed data to obtain the original moving image. Restore the data.

【0007】特定的には、動画像分析装置における前記
特徴点を抽出する手段は、元の画像データにスムーシン
グ関数を畳み込んでDC成分を抽出し、DC成分を除い
た画像データについて多重解像度分析を行って特徴点を
抽出する。また特定的には、動画像分析装置における前
記極値を算出する手段は、前記DC成分を除いた画像デ
ータにスムーシング関数を畳み込んで、その値が0にな
る部分を極値に決定する。さらに特定的には、動画像分
析装置における前記曲面を表す手段は、曲率の極値の距
離が最小になる極値点同士を連結して曲面を表す。
Specifically, the means for extracting the feature points in the moving image analysis apparatus extracts the DC component by convolving the original image data with a smoothing function, and multiresolution analysis is performed on the image data excluding the DC component. And feature points are extracted. Further, specifically, the means for calculating the extreme value in the moving image analysis apparatus convolves the smoothing function with the image data excluding the DC component, and determines the portion where the value becomes 0 as the extreme value. More specifically, the means for expressing the curved surface in the moving image analysis apparatus expresses the curved surface by connecting the extreme value points that minimize the distance between the extreme values of curvature.

【0008】[0008]

【作用】動画像分析装置において、連続する動画像デー
タを、x−y平面に加えて時間軸t方向の3次元空間画
像データとして分析し、特徴点を抽出する。また動画像
分析装置において、これら抽出された特徴点を3次元空
間に広がる曲面として表し、曲面の切断曲線から曲率の
極値、つまり、極大値と極小値を求める。さらに動画像
分析装置において、曲率の極値を時間軸方向に連結した
曲線として表し、この曲線と、基準となる、たとえば、
第1フレーム目の切断曲線とで曲面を表現し、それを圧
縮し符号化する。動画像合成装置は、上述した符号化信
号を受入れ、上述した符号化した処理を逆に行い、元の
動画像データを復元する。
In the moving image analyzer, continuous moving image data is analyzed as three-dimensional spatial image data in the time axis t direction in addition to the xy plane, and feature points are extracted. Further, in the moving image analysis apparatus, these extracted feature points are represented as a curved surface that spreads in a three-dimensional space, and the extreme values of curvature, that is, the maximum value and the minimum value, are obtained from the cutting curve of the curved surface. Furthermore, in the moving image analysis apparatus, the extreme value of the curvature is represented as a curve connected in the time axis direction, and this curve and a reference, for example,
A curved surface is expressed by the cutting curve of the first frame, and the curved surface is compressed and encoded. The moving picture synthesizing device receives the above-mentioned coded signal, reverses the above-mentioned coded processing, and restores the original moving picture data.

【0009】[0009]

【実施例】本発明は動画像を画像平面と時間軸が構成す
る3次元空間に画像情報(輝度信号、色差信号など)が
分布しているものと見なし、その変化を分析して、変化
の特徴点における情報を用いて元の動画像を近似する。
この実施例では、その近似は、3次元空間におけるエッ
ジ曲面の検出とその点における分析結果を用いて、エッ
ジ曲面以外の点の画像情報を補間する。エッジ点の場所
も情報であるのでこれも符号化しなければならないが、
ここでは、曲面という幾何学的な構造をパラメトリック
な関数表現で表し、その関数を分析して画像データの圧
縮を行う。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention regards a moving image as image information (luminance signal, color difference signal, etc.) distributed in a three-dimensional space formed by an image plane and a time axis, analyzes the change, and detects the change. The original moving image is approximated using the information at the feature points.
In this embodiment, the approximation interpolates image information of points other than the edge curved surface using the detection of the edge curved surface in the three-dimensional space and the analysis result at that point. The location of the edge point is also information, so this must also be encoded,
Here, a geometric structure called a curved surface is expressed by a parametric function expression, and the function is analyzed to compress image data.

【0010】以下、図面を参照し、本発明の実施例の動
画像分析合成装置について詳述する。説明を容易にする
ため、白黒の動画像がFフレームだけフレームメモリへ
送られ、このFフレーム分の動画像をまとめて符号化す
ることを考える。図1は本実施例の動画像分析合成装置
1のブロック図である。この動画像分析合成装置(シス
テム)1は分析部(動画像分析装置)10と合成部(動
画像合成装置)20とを有する。分析部10と合成部2
0との間には信号伝送系、たとえば、磁気テープまたは
磁気ディスクなどの磁気記録媒体、あるいは、通信シス
テムにおける信号伝送系などが存在するが、図面におい
ては省略している。分析部10は、画像メモリ11、情
報変化分析部12、特徴点検出部13、特徴点符号化部
14、情報符号化部15および総合符号化部16を有す
る。合成部20は、総合再生部21、情報再生部22お
よび元画像再生部23を有する。
A moving image analyzing / synthesizing apparatus according to an embodiment of the present invention will be described below in detail with reference to the drawings. For ease of explanation, consider that only black and white moving images are sent to the frame memory and the moving images for the F frames are collectively encoded. FIG. 1 is a block diagram of a moving image analysis / synthesis apparatus 1 of this embodiment. The moving image analysis / synthesis device (system) 1 includes an analysis unit (moving image analysis device) 10 and a synthesis unit (moving image synthesis device) 20. Analysis unit 10 and synthesis unit 2
A signal transmission system, for example, a magnetic recording medium such as a magnetic tape or a magnetic disk, or a signal transmission system in a communication system exists between 0 and 0, but is omitted in the drawing. The analysis unit 10 includes an image memory 11, an information change analysis unit 12, a feature point detection unit 13, a feature point coding unit 14, an information coding unit 15, and a comprehensive coding unit 16. The synthesizing unit 20 has an overall reproducing unit 21, an information reproducing unit 22, and an original image reproducing unit 23.

【0011】まず、上述した構成部分の処理内容の概要
を述べる。画像メモリ11は入力された白黒動画像をF
フレーム分を記録し、情報変化分析部12はその動画像
の輝度変化の3次元分析を行う。特徴点検出部13は、
情報変化分析部12における分析結果から特徴点の存在
する場所を3次元空間上に点として表現する。特徴点符
号化部14は、特徴点検出部13の解析結果である特徴
点の存在する場所を曲面として表現する。情報符号化部
15は、元の動画像再生のための分析を、上述の特徴点
の場所において実行し、その分析結果を総合符号化部1
6に送出する。総合符号化部16は、特徴点符号化部1
4と情報符号化部15から送られてくる情報を総合して
適切に符号化する。
First, the outline of the processing contents of the above-mentioned components will be described. The image memory 11 stores the input monochrome moving image in F
The frames are recorded, and the information change analysis unit 12 performs a three-dimensional analysis of the brightness change of the moving image. The feature point detection unit 13
From the analysis result of the information change analysis unit 12, the place where the characteristic point exists is expressed as a point in the three-dimensional space. The feature point encoding unit 14 expresses the place where the feature point, which is the analysis result of the feature point detection unit 13, as a curved surface. The information encoding unit 15 executes the analysis for reproducing the original moving image at the location of the above-mentioned feature point, and the analysis result is obtained by the overall encoding unit 1.
Send to 6. The comprehensive encoding unit 16 includes the feature point encoding unit 1
4 and the information sent from the information coding unit 15 are integrated and appropriately coded.

【0012】総合再生部21は、総合符号化部16にお
いて符号化された情報を、信号伝送系(図示せず)を介
して受信して、その情報から特徴点符号化部14と情報
符号化部15の出力情報を再生する。情報再生部22
は、特徴点の位置に関する再生結果を基に特徴点を3次
元空間内に選び、情報符号化部15の分析結果に関する
再生結果をその位置に配置する。情報再生部22は、特
徴点外の場所における画像成分も補間することにより、
元の動画像の視覚的に重要である3次元空間で輝度変化
の激しい部分は忠実に、その他の部分はなだらかに近似
する。
The general reproducing section 21 receives the information encoded by the general encoding section 16 via a signal transmission system (not shown), and from the information, the feature point encoding section 14 and the information encoding. The output information of the unit 15 is reproduced. Information reproducing unit 22
Selects a feature point in the three-dimensional space based on the reproduction result regarding the position of the feature point, and arranges the reproduction result regarding the analysis result of the information encoding unit 15 at that position. The information reproducing unit 22 also interpolates image components at locations outside the feature points,
In the visually important three-dimensional space of the original moving image, the portion where the brightness changes drastically is faithfully approximated, and the other portion is approximated gently.

【0013】さらに上述した各部の処理内容の詳細につ
いて述べる。画像メモリ11 画像メモリ11は、カメラやビデオなどの画像信号出力
装置(図示せず)からFフレーム分の動画像を順次連続
して入力して記憶する。この入力画像データを元の画像
データ(または、原画像データ、あるいは、初期画像デ
ータ)I0(x,y,t)として表す。パラメータxは(x−
y)二次元平面における横(x軸)方向の位置、パラメ
ータyは縦(y軸)方向の位置、パラメータtは時間経
過を示す。記号Iは白黒画像の輝度(強度)を示す。記
号Io は初期状態における(または元の画像の)輝度を
示す。この画像メモリ11に記憶された元の画像データ
0 (x,y,t) は、x−y平面として規定される画像平面
(イメージ平面)と、時系列的な変化を時間(t)軸に
置き換えた3次元空間上に分布する情報として扱うこと
ができる。この画像メモリ11に記憶された3次元的な
元の画像データI0 (x,y,t) は、情報変化分析部12に
おいて分析を行うために、画像メモリ11から読み出さ
れて情報変化分析部12に出力される。
Further, details of the processing contents of the above-mentioned respective parts will be described. Image memory 11 The image memory 11 sequentially and continuously inputs moving images of F frames from an image signal output device (not shown) such as a camera or a video and stores them. This input image data is represented as original image data (or original image data or initial image data) I 0 (x, y, t). The parameter x is (x-
y) The position in the horizontal (x-axis) direction on the two-dimensional plane, the parameter y indicates the position in the vertical (y-axis) direction, and the parameter t indicates the passage of time. The symbol I indicates the brightness (intensity) of a monochrome image. The symbol I o indicates the brightness in the initial state (or of the original image). The original image data I 0 (x, y, t) stored in the image memory 11 has an image plane (image plane) defined as an xy plane and a time-series change in the time (t) axis. Can be handled as information distributed in the three-dimensional space replaced with. The three-dimensional original image data I 0 (x, y, t) stored in the image memory 11 is read from the image memory 11 and analyzed for information change in order to be analyzed by the information change analysis unit 12. It is output to the unit 12.

【0014】情報変化分析部12 情報変化分析部12においては、画像メモリ11から読
み出した元の画像データI0 (x,y,t) についての3次元
的な変化を分析する。具体的には、この3次元的な変化
の分析として、情報変化分析部12は、異なる分析スケ
ールを適用する多重解像度での各方向へ方向性のあるフ
ィルタリング処理を行なう。多重解像度とは、周波数空
間において帯域特性の異なる複数のフィルタを用いて信
号を帯域ごとに分割することを意味し、情報変化分析部
12において、複数のスケールσj について、サフック
ス(インデックス)j=j1,j2,・・・,jJまで
行なう。情報変化分析部12はまず、DC成分を独立に
分析する。窓関数あるいはスムージング関数をガウス関
数として表されるG(x,y,t: σj ) とおくと、DC成分
は、最も粗い解像度j=jJに相当するスムージング関
数G(x,y,t: σi ) のフィルタ出力に相当する。このこ
とは、下記式1で表されるように、元の画像データI0
(x,y,t) にスムージング関数G(x,y,t: σi ) を畳み込
むことによって、DC成分が抽出されること意味してい
る。
Information Change Analysis Unit 12 The information change analysis unit 12 analyzes the three-dimensional change of the original image data I 0 (x, y, t) read from the image memory 11. Specifically, as the analysis of the three-dimensional change, the information change analysis unit 12 performs a directional filtering process in each direction at multiple resolutions to which different analysis scales are applied. The multi-resolution, means to split the signals for each band by using a plurality of filters having different band characteristics in frequency space, the information change analysis unit 12, a plurality of scales sigma j, Safukkusu (index) j = Perform steps j1, j2, ..., JJ. The information change analysis unit 12 first analyzes the DC component independently. If the window function or the smoothing function is G (x, y, t: σ j ) represented as a Gaussian function, the DC component has a smoothing function G (x, y, t: which corresponds to the coarsest resolution j = jJ. corresponding to the filter output of σ i ). This means that the original image data I 0 is represented by the following equation 1.
This means that the DC component is extracted by convolving the smoothing function G (x, y, t: σ i ) with (x, y, t).

【0015】[0015]

【数1】 [Equation 1]

【0016】1つの記号*は1回の畳み込み演算を表
す。式1には3個の*が存在するから、パラメータx,
y,tについて3回、つまり、3次元の畳み込み演算が
行われることを示している。元の画像データI0 (x,y,
t) から式1で表れるDC成分を減じたDC成分を含ま
ない画像データI(x,y,t) は下記式で表れる。
One symbol * represents one convolution operation. Since there are three * in the formula 1, the parameter x,
It is shown that three times of y, t, that is, a three-dimensional convolution operation is performed. Original image data I 0 (x, y,
The image data I (x, y, t) that does not include the DC component obtained by subtracting the DC component represented by Expression 1 from t) is represented by the following equation.

【0017】[0017]

【数2】 [Equation 2]

【0018】以下、式2で表したDC成分を含まない画
像データI(x,y,t) を単に、画像データと呼ぶ。情報変
化分析部12は、式2で示される画像データI(x,y,t)
の変化を分析する。以下、情報変化分析部12の分析処
理を述べる。まず、情報変化分析部12はスムージング
関数G(x,y,t: σi ) を偏微分した下記式3〜5で表さ
れる分析フィルタ関数を画像データI(x,y,t) に対して
畳み込む。
Hereinafter, the image data I (x, y, t) that does not include the DC component expressed by the equation 2 will be simply referred to as image data. The information change analysis unit 12 uses the image data I (x, y, t) expressed by the equation 2.
Analyze the changes in. The analysis processing of the information change analysis unit 12 will be described below. First, the information change analysis unit 12 applies an analysis filter function represented by the following equations 3 to 5 obtained by partially differentiating the smoothing function G (x, y, t: σ i ) to the image data I (x, y, t). Fold it up.

【0019】[0019]

【数3】 [Equation 3]

【0020】[0020]

【数4】 [Equation 4]

【0021】[0021]

【数5】 [Equation 5]

【0022】その演算式を式6〜8に示す。The calculation formulas are shown in Formulas 6-8.

【0023】[0023]

【数6】 [Equation 6]

【0024】[0024]

【数7】 [Equation 7]

【0025】[0025]

【数8】 [Equation 8]

【0026】以上の演算を行うことにより、情報変化分
析部12において多重解像度分析が行われたことにな
る。
By performing the above calculation, the information change analysis unit 12 has performed the multi-resolution analysis.

【0027】特徴点検出部13 特徴点検出部13では、情報変化分析部12の分析結果
の極値、つまり、極大値、極小値の場所(位置または
点)を求める。その具体的な処理について述べると、特
徴点検出部13は、式6〜式8の結果をもう一度同じ方
向に微分して、ゼロクロス点を求める。ゼロクロス点が
極値を示し、特徴点検出部13はその極値が発生した位
置を記憶する。この特徴点検出部13における演算は、
情報変化分析部12における演算とほぼ同じであり、ス
ムージング関数G(x,y,t: σi ) について、x,y,t
のそれぞれの方向への2階微分(偏微分)したフィルタ
出力のゼロクロス点を求めることになる。スムージング
関数G(x,y,t: σi ) についての2階偏微分を下記式9
〜11に示す。
Characteristic Point Detecting Section 13 The characteristic point detecting section 13 obtains the extreme values of the analysis result of the information change analyzing section 12, that is, the locations (positions or points) of the maximum and minimum values. To describe the specific processing, the feature point detection unit 13 differentiates the results of Expressions 6 to 8 again in the same direction to obtain the zero-cross point. The zero-cross point indicates an extreme value, and the feature point detection unit 13 stores the position where the extreme value occurs. The calculation in the feature point detection unit 13 is
This is almost the same as the calculation in the information change analysis unit 12, and the smoothing function G (x, y, t: σ i ) is x, y, t.
The zero-cross point of the filter output that is second-order differentiated (partial differential) in each direction of is to be obtained. The second partial differential of the smoothing function G (x, y, t: σ i ) is expressed by the following equation 9
~ 11.

【0028】[0028]

【数9】 [Equation 9]

【0029】[0029]

【数10】 [Equation 10]

【0030】[0030]

【数11】 [Equation 11]

【0031】特徴点検出部13は、上記2階偏微分とし
て定義された分析フィルタ関数に画像データI(x,y,t)
を畳み込む。その演算式を下記12〜14に示す。
The feature point detection unit 13 applies the image data I (x, y, t) to the analysis filter function defined as the second partial differential.
Fold up. The calculation formulas are shown in 12 to 14 below.

【0032】[0032]

【数12】 [Equation 12]

【0033】[0033]

【数13】 [Equation 13]

【0034】[0034]

【数14】 [Equation 14]

【0035】特徴点検出部13は、式12〜14の演算
を行って、それぞれのゼロクロス点を求める。ここで、
式12において、畳み込み演算結果WxxI(x,y,t:
σj ) が0となる点(位置)を、Pxi (xxi,yxi,txi: σ
j ) と表す。但し、インデックスi=1,2,・・,N
x j について、Nx j 個ののゼロクロス点があるものと
する。同様に、式13において、畳み込み演算結果Wyy
I( x,y,t:σj ) が0となる点(位置)を、Pyh (xyh,y
yh,tyh: σj ) と表す。但し、インデックスh=1,
2,・・,Ny j について、Ny j 個ののゼロクロス点
があるものとする。また同様に、式14において、畳み
込み演算結果WttI( x,y,t:σj ) が0となる点(位
置)を、Ptk (xtk,ytk,ttk: σj ) と表す。但し、イン
デックスk=1,2,・・,Nt j について、Nt j
ののゼロクロス点があるものとする。簡単な表現にする
ため、点(位置)Pxi (xxi ,y xi,txi: σj ) を点Pxi
(j)、点Pyh (xyh,yyh,tyh: σj ) を点Pyh (j) 、点Pt
k (xtk,ytk,ttk: σj ) を点Ptk (j) と表す。
The feature point detection unit 13 calculates each of the zero-cross points by performing the calculation of Expressions 12-14. here,
In Expression 12, the convolution operation result W xx I (x, y, t:
The point (position) where σ j ) becomes 0 is Px i (x xi , y xi , t xi : σ
j )). However, index i = 1, 2, ..., N
For x j, it is assumed that there is a N x j-number of the zero-crossing point. Similarly, in Expression 13, the convolution operation result W yy
The point (position) at which I (x, y, t: σ j ) becomes 0 is Py h (x yh , y
yh , t yh : σ j ). However, index h = 1,
, ..., N y j, there are N y j zero-cross points. Similarly, in Expression 14, the point (position) at which the convolution operation result W tt I (x, y, t: σ j ) becomes 0 is Pt k (x tk , y tk , t tk : σ j ). Represent However, it is assumed that there are N t j zero-cross points for the indexes k = 1, 2, ..., N t j . In order to simplify the expression, the point (position) Px i (x xi , y xi , t xi : σ j ) is changed to the point Px i.
(j), point Py h (x yh , y yh , t yh : σ j ) to point Py h (j), point Pt
Let k (x tk , y tk , t tk : σ j ) be the point Pt k (j).

【0036】以上のように、特徴点検出部13におい
て、式12〜14の演算を行って、ゼロクロス点、つま
り、極大値または極小値、および、その位置を求める。
As described above, the feature point detection unit 13 calculates the equations 12 to 14 to obtain the zero-cross point, that is, the maximum value or the minimum value and the position thereof.

【0037】特徴点符号化部14 特徴点符号化部14は、特徴点検出部13で算出した点
Pxi (j) 、点Pyh (j)、点Ptk (j) を曲面上の点として
とらえ、その曲面のパラメータにより、点Pxi(j) 、点P
yh (j) 、点Ptk (j) を表すことにより、符号化する。
図6は特徴点符号化部14の処理を示すフローチャート
である。この詳細については後述する。特徴点符号化部
14はまず、点Pxi (j) 、点Pyh (j) 、点Ptk (j) を重
複している点がある場合は、1つにするようにして特徴
点の集合P(j)を作る。つまり、特徴点の集合P(j)は、畳
み込み演算結果WxxI(x,y,t: σj ) が0か、Wyy
(x,y,t:σj ) が0か、WttI( x,y,t:σj ) が0かの
いずれかの点である。その要素をPp(j) と表す。ただ
し、p=1,2,・・・,Np で全部でNp個の特徴点からなると
する。ここで、3次元上に分布する特徴点を2次元上に
分布する特徴点としてとらえるために、特徴点符号化部
14は、x−y−tで構成される3次元空間をx−y平
面と平行にスライスして2次元平面におとす(射影す
る)。そして、特徴点符号化部14は、2次元平面上の
特徴点を連結して曲線を抽出する。ここで、連結とはあ
る特徴点Pp(j) に注目し、その画素を中心として(3×
3)画素から構成される正方形画像について処理を行な
い、その中に同じく特徴点集合のP(j)の要素である特徴
点が含まれていればその点を同一曲線に含むことを言
う。さらに、以上の処理から得られた各2次元平面上の
曲線を時間軸方向(t方向)に連結して曲面として表現
する。まずある曲線に注目し、この曲線と次のフレーム
の曲線の各要素点(特徴点)の9個の画素(3×3)の
近傍にある点の数を計算する。そして一番一致した曲線
同士を連結して曲面を構成する。
Feature Point Coding Section 14 The feature point coding section 14 calculates the points calculated by the feature point detecting section 13.
Px i (j), point Py h (j), and point Pt k (j) are regarded as points on the curved surface, and the points Px i (j) and P
Encoding by representing y h (j) and the point Pt k (j).
FIG. 6 is a flowchart showing the processing of the feature point encoding unit 14. The details will be described later. The feature point encoding unit 14 first sets the point Px i (j), the point Py h (j), and the point Pt k (j), if there are overlapping points, and sets them as one feature point. Create a set P (j). That is, the set of feature points P (j) has a convolution operation result W xx I (x, y, t: σ j ) of 0 or W yy I
(x, y, t: σ j ) is 0, or W tt I (x, y, t: σ j ) is 0. The element is represented as Pp (j). However, it is assumed that p = 1,2, ..., Np is composed of Np feature points in total. Here, in order to regard the feature points distributed in three dimensions as the feature points distributed in two dimensions, the feature point encoding unit 14 defines the three-dimensional space formed by x-y-t on the xy plane. Slice in parallel with and drop (project) on a two-dimensional plane. Then, the feature point coding unit 14 connects the feature points on the two-dimensional plane to extract a curve. Here, connection means focusing on a certain feature point Pp (j), and centering on that pixel (3 ×
3) A square image composed of pixels is processed, and if a feature point that is also an element of P (j) of the feature point set is included therein, that point is included in the same curve. Furthermore, the curves on the respective two-dimensional planes obtained by the above processing are connected in the time axis direction (t direction) and expressed as a curved surface. First, paying attention to a certain curve, the number of points in the vicinity of nine pixels (3 × 3) of each element point (feature point) of this curve and the curve of the next frame is calculated. Then, curved lines are formed by connecting the most matched curves.

【0038】次に、特徴点符号化部14は、グルーピン
グされた曲面を切断曲線と曲率の極値(極大値、極小
値)を連結した曲線で表現する。図2に曲面の例を示
す。まず、特徴点符号化部14は曲面をx−y平面と平
行にスライスする。これにより、曲面は各平面上の切断
曲線になる。そして、特徴点符号化部14は、基準とな
る第1フレーム目の曲線の位置の情報を保持する。次
に、特徴点符号化部14はこの各切断曲線に対し曲率κ
(s) を求め、さらに曲率の極大値、極小値(極値)の位
置を求める。ただし、変数sは始点からの位置を表すパ
ラメータである。曲線から曲率κ(s) を求める手法につ
いては後述する。そして、特徴点符号化部14は求めら
れた曲率の極値の位置をt( 時間軸) 方向に連結する。
ここで、特徴点符号化部14は、t方向への連結では、
あるフレーム上の曲線Li に含まれる曲率の極値点P ni
と次のフレーム上の曲線Li+1 に含まれる曲率の極値点
P i+1mに対して下記式で定義される距離Dを計算する。
Next, the feature point coding unit 14 expresses the grouped curved surface by a curve obtained by connecting a cutting curve and extreme values (maximum value, minimum value) of curvature. FIG. 2 shows an example of a curved surface. First, the feature point encoding unit 14 slices a curved surface in parallel with the xy plane. As a result, the curved surface becomes a cutting curve on each plane. Then, the feature point encoding unit 14 holds information on the position of the curve of the first frame, which is the reference. Next, the feature point encoding unit 14 sets the curvature κ for each cutting curve.
(s) is calculated, and the positions of the maximum and minimum values (extreme values) of curvature are calculated. However, the variable s is a parameter indicating the position from the starting point. A method for obtaining the curvature κ (s) from the curve will be described later. Then, the feature point encoding unit 14 connects the positions of the obtained extreme values of the curvature in the t (time axis) direction.
Here, the feature point encoding unit 14 is
An extreme point P ni of curvature included in the curve L i on a frame
And the extreme point of curvature included in the curve L i + 1 on the next frame
Calculate the distance D defined by the following formula for P i + 1m .

【0039】[0039]

【数15】 [Equation 15]

【0040】そして、特徴点符号化部14は、距離Dが
最小になった極値点同士を連結する。以上により、特徴
点符号化部14は、曲線を、基準となる第1フレーム目
の位置の情報、各フレーム上での極値の位置をt方向に
連結した情報により曲面を表現する。特徴点符号化部1
4は、このとき新たに出現した曲線についてはこれをメ
モリ(図示せず)に保持する。図3に、基準となる第1
フレームとt方向の連結線によって表現された曲面の様
子を示す。
Then, the feature point coding unit 14 connects the extreme points having the minimum distance D to each other. As described above, the feature point encoding unit 14 expresses a curved surface by the information of the position of the first frame serving as a reference and the information in which the positions of the extreme values on each frame are connected in the t direction. Feature point coding unit 1
4 holds the newly appearing curve in the memory (not shown). In Figure 3, the first reference
The appearance of the curved surface represented by the frame and the connecting line in the t direction is shown.

【0041】情報符号化部15 情報符号化部15は、前述の特徴点の構成する曲面の上
で情報を分析し、分析結果の圧縮処理を行なう。これら
の上での圧縮を行なう理由を述べる。つまり、これらの
特徴点では、情報変化分析部12で分析した情報の極値
を与える点であり、その極値は、つながっている特徴点
の上は、なだらかにしか変化しないからである。より具
体的に述べると、前述した点P gj(j) を、曲面で表現
し、特徴点符号化部14ではその位置(x,y,t) を符号化
したが、情報符号化部15は、分析結果(畳み込み演算
結果)Wx I(x,y,t: σi ) 、Wy I(x,y,t: σi ) 、
t I(x,y,t: σi ) を同様の手法で符号化する。情報
符号化部15における曲面の分析結果の符号化では、特
徴点符号化部14において表現された特徴点の位置にお
ける分析結果を曲面の情報として持つことにより圧縮を
行なう。つまり、曲面上に乗っている情報符号化部15
における分析結果を、特徴点符号化部14で表された第
1フレームの切断曲線と曲率とを時間方向につないだ連
結線の位置の分析結果だけで表す。以上のように、情報
符号化部15は特徴点の上での分析結果の圧縮処理を行
なう。
Information Encoding Unit 15 The information encoding unit 15 analyzes information on the curved surface formed by the above-mentioned feature points and compresses the analysis result. The reason for performing compression on these will be described. That is, these feature points are points that give the extreme value of the information analyzed by the information change analysis unit 12, and the extreme value changes only gently on the connected feature points. More specifically, the above-mentioned point P gj (j) is represented by a curved surface, and the feature point encoding unit 14 encodes its position (x, y, t), but the information encoding unit 15 , Analysis result (convolution operation result) W x I (x, y, t: σ i ), W y I (x, y, t: σ i ),
W t I (x, y, t: σ i ) is encoded by a similar method. In the encoding of the analysis result of the curved surface in the information encoding unit 15, the analysis result at the position of the feature point expressed in the feature point encoding unit 14 is used as the information of the curved surface for compression. That is, the information encoding unit 15 on the curved surface
The analysis result in (1) is represented only by the analysis result of the position of the connecting line that connects the cutting curve and the curvature of the first frame represented by the feature point encoding unit 14 in the time direction. As described above, the information encoding unit 15 compresses the analysis result on the feature points.

【0042】総合符号化部16 総合符号化部16は、特徴点符号化部14と情報符号化
部15からのデータを符号化する。この符号化を簡単に
述べると、総合符号化部16は両者の冗長度をさらに圧
縮したり、あるいは量子化のためのビット割当などを行
なう。また、必要であれば、総合符号化部16は、誤り
訂正のための符号化処理を行なう。さらに、総合符号化
部16はその結果を記録し、合成部20に送信する。
Total Encoding Unit 16 The overall encoding unit 16 encodes the data from the feature point encoding unit 14 and the information encoding unit 15. To briefly describe this encoding, the total encoding unit 16 further compresses the redundancy of both, or performs bit allocation for quantization. If necessary, the total coding unit 16 performs coding processing for error correction. Further, the comprehensive encoding unit 16 records the result and sends it to the synthesizing unit 20.

【0043】以下、合成部20の処理について述べる。総合再生部21 総合再生部21は、総合符号化部16の符号化データを
入力し総合符号化部16の逆の操作を行なう。つまり、
総合再生部21は、特徴点符号化部14と情報符号化部
15の情報、すなわち、特徴点の場所に関するデータと
その上の情報を再構成するのに必要なデータを復号す
る。
The processing of the synthesizing unit 20 will be described below. General reproduction section 21 The general reproduction section 21 inputs the encoded data of the general encoding section 16 and performs the reverse operation of the general encoding section 16. That is,
The general reproduction section 21 decodes the information of the feature point coding section 14 and the information coding section 15, that is, the data relating to the location of the feature point and the data necessary for reconstructing the information above it.

【0044】情報再生部22 情報再生部22は、総合再生部21から得られた特徴点
符号化部14の出力と等価なデータから特徴点の位置、
および、情報符号化部15の情報符号化の出力と等価な
情報から、(x −y −t )で規定される3次元空間にお
ける全ての特徴点の位置とその位置における情報を復元
する。つまり、情報再生部22は、特徴点符号化部14
と情報符号化部15で行なった圧縮の逆処理を行なう。
換言すれば、情報再生部22は、曲面としてグループ化
された特徴点とその上の情報変化分析部12の結果を復
元する。
Information reproducing unit 22 The information reproducing unit 22 determines the position of the characteristic point from the data equivalent to the output of the characteristic point encoding unit 14 obtained from the general reproducing unit 21,
Also, the positions of all the feature points in the three-dimensional space defined by (x-y-t) and the information at the positions are restored from the information equivalent to the output of the information encoding of the information encoding unit 15. That is, the information reproducing unit 22 includes the feature point encoding unit 14
The reverse processing of the compression performed by the information encoding unit 15 is performed.
In other words, the information reproducing unit 22 restores the characteristic points grouped as a curved surface and the result of the information change analysis unit 12 above the characteristic points.

【0045】図4は情報再生部22において復元された
曲面を示す図である。情報再生部22はまず、基準とな
る第1フレーム目の情報を読み込む。次に、情報再生部
22は各フレームの曲率の極値をt方向に連結した情報
を読み込む。さらに情報再生部22は、第1フレームの
i番目の極値の位置P1(si ) と、第1フレームの(i+1)
番目の極値の位置P1(si+1 )と、それぞれに対応した次
のフレームのj番目の極値の位置P2(sj ) と、(j+1) 番
目の極値の位置P2(sj+1)を選び出す。情報再生部22
は、この4点に対し、第1フレーム上のi番目と(i+1)
番目の極値に囲まれた曲線の位置情報を使って、次のフ
レーム上のi’番目と(i+1)’番目の極値に囲まれた曲
線の位置を補間する。情報再生部22は、以上の操作を
全てのフレームに対して行ない位置情報を全て復元す
る。補間の方法については後述する。同様に、情報再生
部22は、第1フレーム目の位置情報の上にある分析結
果をt方向に順次補間することにより、情報変化分析部
12の結果を復元する。
FIG. 4 is a diagram showing a curved surface restored by the information reproducing section 22. The information reproducing unit 22 first reads the reference first frame information. Next, the information reproducing unit 22 reads the information in which the extreme values of the curvature of each frame are connected in the t direction. Furthermore, the information reproducing unit 22 determines the position of the i-th extreme value P 1 (s i ) of the first frame and (i + 1) of the first frame.
The position of the extremum P 1 (s i + 1 ) and the corresponding position of the jth extremum P 2 (s j ) of the next frame and the position of the (j + 1) th extremum Select P2 (s j + 1 ). Information reproducing unit 22
For the four points, the i-th and (i + 1) on the first frame
Using the position information of the curve surrounded by the extreme value of the th, the position of the curve surrounded by the extreme values of the i′th and (i + 1) ′ th points on the next frame is interpolated. The information reproducing unit 22 performs the above operation for all frames and restores all position information. The interpolation method will be described later. Similarly, the information reproducing unit 22 restores the result of the information change analyzing unit 12 by sequentially interpolating the analysis result on the position information of the first frame in the t direction.

【0046】元画像再生部23 元画像再生部23は、上記の操作で得られた情報変化分
析部12の分析結果の極値である情報に基づいてそれを
補間近似し、(x −y −t )の3次元空間全体での情報
変化分析部12の結果を復元し、それに式6〜8の逆変
換を行ない、x-y-t の3次元における元の画像データI
0 (x,y,t) を復元する。この例では、元画像再生部23
は、Convex Projection 法(凸面突起)法を用いて補間
と逆変換を何回か繰り返して収束させる。元画像再生部
23はまず、特徴点からの補間は簡単のために(x,y,t
)の方向に対して独立に行なう。すなわち、元画像再
生部23は、x方向にすべてのyとすべての時間t に対
して全部でYT本の1次元データと見なし、極値におけ
る分析結果Wx I(x,y,t: σi ) を用いて、Convex Pro
jection 法により、その点を極値とするような射影を取
る。元画像再生部23はy方向と、t方向に対しても、
x方向と同様に処理を行なう。元画像再生部23は、得
られた近似データを式22で定義された方法で逆変換を
行ない、再び式6〜8で定義された方法で元の分析空間
に射影する。元画像再生部23は、この操作を数回繰り
返して、極値における分析結果WxI(x,y,t: σi ) 、
Wy I(x,y,t: σi ) 、Wt I(x,y,t: σi ) へ収束さ
せる。元画像再生部23は、最後に逆変換を行ないDC
成分を含まない画像データI(x,y,t) を復元する。逆変
換は下記式で表されるフィルタ関数を分析結果に畳み込
めばよい。
Original image reproducing unit 23 The original image reproducing unit 23 performs interpolation approximation on the basis of the information which is the extreme value of the analysis result of the information change analysis unit 12 obtained by the above operation, and (x-y- The result of the information change analysis unit 12 in the entire three-dimensional space of t) is restored, and the inverse transformation of equations 6 to 8 is performed on the result, and the original image data I
Restore 0 (x, y, t). In this example, the original image reproduction unit 23
Uses the Convex Projection method (convex projection) to repeat interpolation and inverse transformation several times to converge. The original image reproduction unit 23 first uses (x, y, t
) Independent direction. That is, the original image reproducing unit 23 regards YT one-dimensional data as a whole for all y and all time t in the x direction, and the analysis result Wx I (x, y, t: σ i ) To use Convex Pro
By the jection method, the projection that makes that point an extremum is taken. The original image reproducing unit 23 also operates in the y direction and the t direction.
Processing is performed in the same manner as in the x direction. The original image reproducing unit 23 performs the inverse transformation on the obtained approximate data by the method defined by the equation 22, and projects it again on the original analysis space by the method defined by the equations 6 to 8. The original image reproducing unit 23 repeats this operation several times to obtain the analysis result WxI (x, y, t: σ i ) at the extreme value,
Wy I (x, y, t: σ i ) and Wt I (x, y, t: σ i ) are converged. The original image reproducing unit 23 finally performs the inverse conversion and performs DC conversion.
The image data I (x, y, t) that does not include the component is restored. The inverse transformation may be performed by convolving the analysis result with the filter function represented by the following equation.

【0047】[0047]

【数16】 [Equation 16]

【0048】[0048]

【数17】 [Equation 17]

【0049】[0049]

【数18】 [Equation 18]

【0050】上記式における記号C(u,v,w)は下記式で定
義される。
The symbol C (u, v, w) in the above equation is defined by the following equation.

【0051】[0051]

【数19】 [Formula 19]

【0052】式16〜18の左辺はそれぞれ、スムージ
ング関数(ガウス関数)Gx (u,v,w: σi ) 、Gy (u,
v,w: σi ) 、Gt (u,v,w: σi ) のフーリエ変換を表
し、つまり、頭部の山形ハットはフーリエ変換を表し、
右肩の*は複素関数を表し、右辺の頭部の−は複素共役
を表す。DC成分を含まない画像データI(x,y,t) は上
式で定義される逆変換のフィルタを用いて下記式で求め
られる。
The left sides of the equations 16 to 18 are smoothing functions (Gaussian functions) Gx (u, v, w: σ i ) and Gy (u, respectively).
v, w: σ i ), Gt (u, v, w: σ i ), the Fourier transform of Gt (u, v, w: σ i ).
* On the right shoulder represents a complex function, and − on the head of the right side represents a complex conjugate. The image data I (x, y, t) that does not include the DC component is obtained by the following equation using the inverse transform filter defined by the above equation.

【0053】[0053]

【数20】 [Equation 20]

【0054】[0054]

【数21】 [Equation 21]

【0055】[0055]

【数22】 [Equation 22]

【0056】最後に、元画像再生部23は、下記式に示
すように、DC成分を含まない画像データI(x,y,t) に
DC成分S iJ(x,y,t) を加えて元の動画像データI
0 (x,y,t) を復元する。
Finally, the original image reproducing section 23 adds the DC component S iJ (x, y, t) to the image data I (x, y, t) not containing the DC component, as shown in the following equation. Original moving image data I
Restore 0 (x, y, t).

【0057】[0057]

【数23】 [Equation 23]

【0058】このようにして、合成部20は元の画像デ
ータI0 (x,y,t) を再現できた。以下、特徴点符号化部
14で用いた曲線からの曲率の計算アルゴリズム(方
法)、および、情報再生部22で用いた曲面の補間アル
ゴリズム(方法)について詳述する。
In this way, the synthesizing section 20 was able to reproduce the original image data I 0 (x, y, t). The calculation algorithm (method) of the curvature from the curve used by the feature point encoding unit 14 and the interpolation algorithm (method) of the curved surface used by the information reproducing unit 22 will be described in detail below.

【0059】曲率計算方法 まず、特徴点符号化部14における曲率の計算方法につ
いて述べる。特徴点符号化部14は、入力された曲線か
ら曲率を計算し、曲率で曲線を表現する。いま曲線のデ
ータ列P(s)を、パラメータs として2次元上の位置を下
記式で表す。
Curvature Calculation Method First, a curvature calculation method in the feature point encoding unit 14 will be described. The feature point encoding unit 14 calculates the curvature from the input curve and expresses the curve by the curvature. Now, the two-dimensional position of the curve data string P (s) is represented as the parameter s by the following formula.

【0060】[0060]

【数24】 [Equation 24]

【0061】パラメータl( エル) の関数(x(l),y(l))
の微分が存在しているとすると、曲率κ(l) は次のよう
に計算できる。
Function of parameter l (el) (x (l), y (l))
If there is a derivative of, the curvature κ (l) can be calculated as

【0062】[0062]

【数25】 [Equation 25]

【0063】としてAs

【0064】[0064]

【数26】 [Equation 26]

【0065】とする。式26は次式より導出される。It is assumed that Expression 26 is derived from the following expression.

【0066】[0066]

【数27】 [Equation 27]

【0067】式27を、パラメータxについて1階微
分、さらに2階微分すると下記式が得られる。
The following equation is obtained by subjecting the equation 27 to the first-order differentiation and the second-order differentiation with respect to the parameter x.

【0068】[0068]

【数28】 [Equation 28]

【0069】式28を式27に代入すると下記式が得ら
れる。
By substituting the expression 28 into the expression 27, the following expression is obtained.

【0070】[0070]

【数29】 [Equation 29]

【0071】式29および式27から下記式が得られ
る。
The following equations are obtained from the equations 29 and 27.

【0072】[0072]

【数30】 [Equation 30]

【0073】ここで、x(s),y(s) に対するパラメータs
による1階微分および2階微分は、下記式で表される。
Here, the parameter s for x (s), y (s)
The first-order differential and the second-order differential due to are expressed by the following equations.

【0074】[0074]

【数31】 [Equation 31]

【0075】したがって、下記式が得られる。Therefore, the following equation is obtained.

【0076】[0076]

【数32】 [Equation 32]

【0077】式30および式32から曲率κ(l) は下記
式で表される。
From equations 30 and 32, the curvature κ (l) is expressed by the following equation.

【0078】[0078]

【数33】 [Expression 33]

【0079】以上より、特徴点符号化部14は、式33
を用いて曲線のデータ列P(s)の曲率κ(s) を求めること
ができる。曲率κ(s) が求められれば曲面が判る。しか
しながら、データ列P(s)は、量子化された位置のデータ
であるため、得られる曲率は振動的になる。これを改善
するために、特徴点符号化部14は、データ列 P(s)
に、スムーシング関数を畳み込む。スムーシング関数と
しては、1次元のガウス関数g(s,σ)を用いる。ここ
で、パラメータσは各解像度に対するスケールを表す。
1次元のガウス関数は下記式で表される。
From the above, the feature point encoding unit 14 uses the equation 33
Can be used to find the curvature κ (s) of the curve data string P (s). If the curvature κ (s) is obtained, the curved surface is known. However, since the data string P (s) is quantized position data, the obtained curvature becomes oscillatory. In order to improve this, the feature point encoding unit 14 uses the data string P (s)
Fold the smoothing function into. A one-dimensional Gaussian function g (s, σ) is used as the smoothing function. Here, the parameter σ represents a scale for each resolution.
The one-dimensional Gaussian function is represented by the following formula.

【0080】[0080]

【数34】 [Equation 34]

【0081】ここで、上記ガウス関数を用いてスムーシ
ングされたデータ列 P(s, σ) を下記式で表す。
Here, the data string P (s, σ) smoothed by using the Gaussian function is represented by the following equation.

【0082】[0082]

【数35】 [Equation 35]

【0083】1つの畳み込みを1つの記号*で表すと下
記式が得られる。
When one convolution is represented by one symbol *, the following equation is obtained.

【0084】[0084]

【数36】 [Equation 36]

【0085】曲率κ(s) を求めるためには、式36にお
けるX(s,σ) およびY(s,σ) のそれぞれの1次微分およ
び2次微分が必要である。1次元ガウス関数g(s,σ) の
1次微分を下記式37に示したg1(s, σ) 、2次微分を
式38に示したg1(s, σ) とすれば、式36におけるX
(s,σ) およびY(s,σ) それぞれの1次微分および2次
微分は、式39〜42で定義される。
In order to obtain the curvature κ (s), the respective first and second derivatives of X (s, σ) and Y (s, σ) in the equation 36 are required. Assuming that the first derivative of the one-dimensional Gaussian function g (s, σ) is g1 (s, σ) shown in the following formula 37 and the second derivative is g1 (s, σ) shown in the formula 38, X
The first and second derivatives of (s, σ) and Y (s, σ), respectively, are defined by equations 39-42.

【0086】[0086]

【数37】 [Equation 37]

【0087】[0087]

【数38】 [Equation 38]

【0088】[0088]

【数39】 [Formula 39]

【0089】[0089]

【数40】 [Formula 40]

【0090】[0090]

【数41】 [Formula 41]

【0091】[0091]

【数42】 [Equation 42]

【0092】式39〜42に式33を代入すると、各解
像度における曲率κ(l) が求められる。この曲率κ(l)
から曲面が求められる。つまり、特徴点符号化部14は
上述した演算を行って、曲率κ(l) を求める。
By substituting the expression 33 into the expressions 39 to 42, the curvature κ (l) at each resolution can be obtained. This curvature κ (l)
The curved surface is obtained from. That is, the feature point encoding unit 14 performs the above-described calculation to obtain the curvature κ (l).

【0093】曲面補間方法 以下、図5、図7を参照しながら、情報再生部22で行
う曲面補間処理について説明する。今、図5の様に原点
から曲線L i の特徴点P in,Pin+1、および、曲線Li
i+ 1 上の特徴点P i+1n,Pi;1n+1までのベクトルを、
in、Pin+1、Pi+1n+1、Pi+ 1n+1j とする。ここで、
特徴点PinとPin+1間のデータより、特徴点Pi+1nとP
i+1n+1との間のデータを補間することを考える。特徴点
PinとPin+1との間の距離をL1、PinとPin+1との間の
距離をL2とすると、下記式が得られる。
Curved Surface Interpolation Method The curved surface interpolation process performed by the information reproducing section 22 will be described below with reference to FIGS. Now, as shown in Fig. 5, on the curve L i from the origin Feature points P in , P in + 1 and curve Li
i + 1 characteristic point on the P i + 1n, P i; the vector to 1n + 1,
Let P in , P in + 1 , P i + 1n + 1 , P i + 1 n + 1j . here,
From the data between the characteristic points Pin and Pin + 1, the characteristic points Pi + 1n and P
Consider interpolating data between i + 1n + 1. When the distance between the feature points Pin and Pin + 1 is L1 and the distance between the pin Pin and Pin + 1 is L2, the following equation is obtained.

【0094】[0094]

【数43】 [Equation 43]

【0095】[0095]

【数44】 [Equation 44]

【0096】ここで、曲線L1における単位ベクトルをe
1、e2とすると、下記式が得られる。
Here, the unit vector on the curve L1 is e
If the values are 1 and e2, the following equation is obtained.

【0097】[0097]

【数45】 [Equation 45]

【0098】[0098]

【数46】 [Equation 46]

【0099】従って、曲線Li上の特徴点Pa における高
さh1、長さl1はそれぞれ下記式で表される。
Therefore, the height h1 and the length l1 at the characteristic point Pa on the curve Li are respectively expressed by the following equations.

【0100】[0100]

【数47】 [Equation 47]

【0101】[0101]

【数48】 [Equation 48]

【0102】同様に、曲線Li+1上の単位ベクトルをe
1’、e2’とすると、下記式で表される。
Similarly, the unit vector on the curve Li + 1 is e
When 1 ′ and e2 ′ are given, they are represented by the following formula.

【0103】[0103]

【数49】 [Equation 49]

【0104】[0104]

【数50】 [Equation 50]

【0105】従って、曲線Li+1上の特徴点Pa'における
高さh2、長さl2はそれぞれ、下記式で表される。
Therefore, the height h2 and the length l2 at the characteristic point Pa 'on the curve Li + 1 are respectively expressed by the following equations.

【0106】[0106]

【数51】 [Equation 51]

【0107】[0107]

【数52】 [Equation 52]

【0108】ここで、曲線Li+1上の点Pa'の高さh2、長
さl2を次のように決めると、下記式で表される。
Here, if the height h2 and the length l2 of the point Pa 'on the curve Li + 1 are determined as follows, they are expressed by the following equations.

【0109】[0109]

【数53】 [Equation 53]

【0110】[0110]

【数54】 [Equation 54]

【0111】式51〜54から曲線Li+1上の特徴点Pa'
=(Pax',Pay')は下記式に基づいて計算できる。
From the equations 51 to 54, the characteristic point Pa ′ on the curve Li + 1
= (Pax ', Pay') can be calculated based on the following formula.

【0112】[0112]

【数55】 [Equation 55]

【0113】[0113]

【数56】 [Equation 56]

【0114】以上のように、本発明の実施例において
は、元の画像データI0 (x,y,t) として白黒の画像を例
示したが、本発明の実施に際しては、白黒の動画像に限
らず、カラーの動画像データについても、画質および圧
縮率を高めて符号化できる。カラー画像データとして
は、たとえば、R,G,Bの画像データの場合、R,
G,Bのそれぞれについて上述した分析処理を行えばよ
い。
As described above, in the embodiment of the present invention, a black and white image is exemplified as the original image data I 0 (x, y, t), but in the implementation of the present invention, a black and white moving image is used. Not limited to this, color moving image data can be encoded while improving the image quality and the compression rate. As the color image data, for example, in the case of R, G, B image data, R, G
The above-described analysis processing may be performed for each of G and B.

【0115】[0115]

【発明の効果】本発明によれば、動画像データを視覚的
に遜色のない画質で高い圧縮率を達成できる。つまり、
本発明によれば、視覚的に遜色のない空間方向、時間方
向への画像の拡大あるいは補関および視覚的に遜色のな
い画質で高い圧縮率を達成できる。
According to the present invention, it is possible to achieve a high compression ratio of moving image data with a visually comparable image quality. That is,
According to the present invention, it is possible to achieve a high compression ratio with a visually comparable image quality in a spatial direction and an image expansion or compensation in the time direction and a visually comparable image quality.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は本発明の実施例の動画像分析合成装置の
ブロック図である。
FIG. 1 is a block diagram of a moving image analysis / synthesis apparatus according to an exemplary embodiment of the present invention.

【図2】図2は本発明の動画像分析合成装置における処
理を示すグラフである。
FIG. 2 is a graph showing processing in the moving image analysis / synthesis apparatus of the present invention.

【図3】図3は本発明の動画像分析合成装置における処
理を示すグラフであって、第1フレームと時間軸(t)
方向連結線によって表現された曲面の様子を示すグラフ
である。
FIG. 3 is a graph showing a process in the moving image analysis / synthesis apparatus of the present invention, in which the first frame and the time axis (t).
It is a graph which shows the appearance of the curved surface represented by the direction connection line.

【図4】図4は本発明の動画像分析合成装置における処
理を示すグラフであって、図1に示した情報再生部22
において復元された曲面を示す図である。
FIG. 4 is a graph showing processing in the moving image analysis / synthesis apparatus of the present invention, which is an information reproducing unit 22 shown in FIG.
It is a figure which shows the curved surface restored in FIG.

【図5】図5は本発明の動画像分析合成装置における処
理を示すグラフであって、曲面補間を示す図である。
FIG. 5 is a graph showing processing in the moving image analysis / synthesis apparatus of the present invention, and is a diagram showing curved surface interpolation.

【図6】図6は図1に示した特徴点符号化部14の符号
化処理フローチャートである。
FIG. 6 is an encoding processing flowchart of a feature point encoding unit 14 shown in FIG.

【図7】図7は図5に示した曲面補間の処理を示す情報
再生部22の処理フローチャートである。
7 is a processing flowchart of an information reproducing unit 22 showing the curved surface interpolation processing shown in FIG.

【符号の説明】[Explanation of symbols]

1・・動画像分析合成装置 10・・分析部 11・・画像メモリ 12・・情報変化分析部 13・・特徴点検出部 14・・特徴点符号化部 15・・情報符号化部 16・・総合符号化部 20・・合成部 21・・総合再生部 22・・情報再生部 23・・元画像再生部 1 ... Moving image analysis / synthesis device 10 ... Analysis unit 11 ... Image memory 12 ... Information change analysis unit 13 ... Feature point detection unit 14 ... Feature point coding unit 15 ... Information coding unit 16 ... Comprehensive encoding unit 20-Combining unit 21-Comprehensive reproducing unit 22-Information reproducing unit 23-Original image reproducing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 9061−5L G06F 15/70 365 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location 9061-5L G06F 15/70 365

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】時間的に変化する元の動画像データを二次
元平面および時間軸方向の3次元空間に分布する3次元
空間画像データとして分析して、特徴点を抽出する手段
と、 該抽出された特徴点を3次元に広がる曲面として表す手
段と、 曲面の切断曲線から曲率の極値を算出する手段と、 該曲率の極値を時間軸方向に連結した曲線と基準となる
画像データの切断曲線とで曲面を表す手段と、 該曲面のデータを圧縮する手段とを具備する動画像分析
合成装置。
1. A means for analyzing original time-varying moving image data as three-dimensional space image data distributed in a two-dimensional plane and a three-dimensional space in the time axis direction, and extracting feature points, and the extraction. Means for expressing the defined feature points as a three-dimensional curved surface, means for calculating an extreme value of curvature from a cutting curve of the curved surface, a curve connecting the extreme values of curvature in the time axis direction, and the reference image data. A moving image analysis / synthesis apparatus comprising: means for expressing a curved surface by a cutting curve; and means for compressing data on the curved surface.
【請求項2】前記圧縮されたデータを受入れ、前記動画
像分析装置における処理と実質的に逆の処理を行い、相
似補間して前記元の動画像データを復元する合成手段を
さらに有する請求項1記載の動画像分析合成装置。
2. A synthesizing means for receiving the compressed data, performing processing substantially reverse to the processing in the moving image analysis apparatus, and performing similarity interpolation to restore the original moving image data. 1. The moving image analysis / synthesis apparatus according to 1.
【請求項3】前記特徴点を抽出する手段は、 元の画像データにスムーシング関数を畳み込んでDC成
分を抽出し、 DC成分を除いた画像データについて多重解像度分析を
行って特徴点を抽出する請求項1記載の動画像分析合成
装置。
3. The feature point extracting means extracts a DC component by convolving a smoothing function with the original image data, and multi-resolution analysis is performed on the image data excluding the DC component to extract the feature point. The moving image analysis / synthesis apparatus according to claim 1.
【請求項4】前記極値を算出する手段は、前記DC成分
を除いた画像データにスムーシング関数を畳み込んで、
その値が0になる部分を極値に決定する、請求項3記載
の動画像分析合成装置。
4. The means for calculating the extremum convolves a smoothing function on the image data excluding the DC component,
4. The moving image analysis / synthesis apparatus according to claim 3, wherein a portion where the value becomes 0 is determined as an extreme value.
【請求項5】前記曲面を表す手段は、曲率の極値の距離
が最小になる極値点同士を連結して曲面を表す、請求項
4記載の動画像分析合成装置。
5. The moving image analyzing / synthesizing apparatus according to claim 4, wherein the means for representing the curved surface represents the curved surface by connecting extreme value points that minimize the distance between the extreme values of curvature.
【請求項6】前記合成する手段は、 前記圧縮されたデータを受入れ、該圧縮データを伸長す
る手段と、 伸長されたデータから曲率の極値に復元する手段と、 該復元されたデータから曲率の極値を算出する手段と、 該極値から3次元に広がる曲面として復元する手段と、 該復元した曲面から特徴点を復元する手段と、 願復元された特徴点から元の動画像データを復元する手
段とをさらに具備する請求項2記載の動画像分析合成装
置。
6. The synthesizing means receives the compressed data, decompresses the compressed data, restores the compressed data to an extreme value of curvature, and restores the curvature from the restored data. Means for calculating the extreme value of, a means for restoring a curved surface that spreads three-dimensionally from the extreme value, a means for restoring feature points from the restored curved surface, and original moving image data from the restored restored feature points. 3. The moving image analysis / synthesis apparatus according to claim 2, further comprising means for restoring.
【請求項7】前記特徴点を抽出する手段は、画像メモリ
および情報変化分析部を有し、 前記3次元に広がる曲面として表す手段は、特徴点符号
化部を有し、 前記曲率の極値を算出する手段は、情報符号化部を有
し、 前記連結した曲線と基準となる画像データの切断曲線と
で曲面を表す手段は情報符号化部を有し、 前記曲面のデータを圧縮する手段は、総合符号化部を有
する請求項5記載の動画像分析合成装置。
7. The means for extracting the feature points has an image memory and an information change analysis section, and the means for expressing as the three-dimensional curved surface has a feature point encoding section, the extreme value of the curvature. Means for calculating the information encoding unit, means for expressing a curved surface by the connected curve and the cutting curve of the reference image data has an information encoding unit, and means for compressing the curved surface data The moving image analysis / synthesis apparatus according to claim 5, further comprising: a comprehensive encoding unit.
JP26665093A 1993-10-25 1993-10-25 Moving image analysis and synthesis equipment Expired - Fee Related JP3764494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26665093A JP3764494B2 (en) 1993-10-25 1993-10-25 Moving image analysis and synthesis equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26665093A JP3764494B2 (en) 1993-10-25 1993-10-25 Moving image analysis and synthesis equipment

Publications (2)

Publication Number Publication Date
JPH07123409A true JPH07123409A (en) 1995-05-12
JP3764494B2 JP3764494B2 (en) 2006-04-05

Family

ID=17433784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26665093A Expired - Fee Related JP3764494B2 (en) 1993-10-25 1993-10-25 Moving image analysis and synthesis equipment

Country Status (1)

Country Link
JP (1) JP3764494B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185038A (en) * 2004-12-27 2006-07-13 Ge Medical Systems Global Technology Co Llc Four- or n-dimensional labeling apparatus, and four- or n-dimensional spatial filter apparatus
JP2006217406A (en) * 2005-02-04 2006-08-17 Sony Corp Coding apparatus and method, decoding apparatus and method, recording medium, program, and image processing system and method
CN100384256C (en) * 1995-08-08 2008-04-23 株式会社大宇电子 Image processing system using pixel-by-pixel motion estimation based on feature points
CN100384257C (en) * 1995-08-08 2008-04-23 株式会社大宇电子 Image processing system using feature point-based motion estimation
CN100388793C (en) * 1995-03-20 2008-05-14 株式会社大宇电子 Image processing apparatus using pixel-by-pixel motion estimation based on feature points
JP2019523943A (en) * 2016-06-07 2019-08-29 トヨタ モーター ヨーロッパ Control apparatus, system and method for determining perceptual load of visual and dynamic driving scene

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100388793C (en) * 1995-03-20 2008-05-14 株式会社大宇电子 Image processing apparatus using pixel-by-pixel motion estimation based on feature points
CN100384256C (en) * 1995-08-08 2008-04-23 株式会社大宇电子 Image processing system using pixel-by-pixel motion estimation based on feature points
CN100384257C (en) * 1995-08-08 2008-04-23 株式会社大宇电子 Image processing system using feature point-based motion estimation
JP2006185038A (en) * 2004-12-27 2006-07-13 Ge Medical Systems Global Technology Co Llc Four- or n-dimensional labeling apparatus, and four- or n-dimensional spatial filter apparatus
JP2006217406A (en) * 2005-02-04 2006-08-17 Sony Corp Coding apparatus and method, decoding apparatus and method, recording medium, program, and image processing system and method
JP2019523943A (en) * 2016-06-07 2019-08-29 トヨタ モーター ヨーロッパ Control apparatus, system and method for determining perceptual load of visual and dynamic driving scene

Also Published As

Publication number Publication date
JP3764494B2 (en) 2006-04-05

Similar Documents

Publication Publication Date Title
Bashir et al. A comprehensive review of deep learning-based single image super-resolution
Wang et al. Deep learning for image super-resolution: A survey
USRE37668E1 (en) Image encoding/decoding device
KR101278224B1 (en) Apparatus and method for processing video data
US8908766B2 (en) Computer method and apparatus for processing image data
US5835237A (en) Video signal coding method and apparatus thereof, and video signal decoding apparatus
JP4928451B2 (en) Apparatus and method for processing video data
JP2000508488A (en) System and method for multi-resolution conversion of digital image information
Moorthy et al. Efficient motion weighted spatio-temporal video SSIM index
US20010019630A1 (en) Method for transferring and displaying compressed images
US5909516A (en) Method and apparatus for decomposing an image stream into units of local contrast
JP2009540675A (en) Apparatus and method for processing video data
JP2008537391A (en) Apparatus and method for processing video data
JP2008521347A (en) Apparatus and method for processing video data
US20090244365A1 (en) Systems and methods for increasing the temporal resolution of video data
US20080260285A1 (en) Method and apparatus for image processing
US8311347B2 (en) Image compression based on parameter-assisted inpainting
JPH07123409A (en) Moving image analysing and synthesizing device
US6009200A (en) Dynamic image processing apparatus and method
Niu et al. Edge-based perceptual image coding
US6195461B1 (en) Dynamic image processing apparatus and method
Liu et al. Arbitrary-scale super-resolution via deep learning: A comprehensive survey
Martens Application of scale space to image coding
JP3508250B2 (en) Moving image processing device
Schmalz Object-based image compression

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060120

LAPS Cancellation because of no payment of annual fees