JPH08149458A - Moving image processor - Google Patents

Moving image processor

Info

Publication number
JPH08149458A
JPH08149458A JP28565594A JP28565594A JPH08149458A JP H08149458 A JPH08149458 A JP H08149458A JP 28565594 A JP28565594 A JP 28565594A JP 28565594 A JP28565594 A JP 28565594A JP H08149458 A JPH08149458 A JP H08149458A
Authority
JP
Japan
Prior art keywords
segment
frame
dimensional model
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28565594A
Other languages
Japanese (ja)
Inventor
Katsuyuki Tanaka
勝之 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP28565594A priority Critical patent/JPH08149458A/en
Publication of JPH08149458A publication Critical patent/JPH08149458A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To obtain a moving image processor coding a moving image with high compressiblity and decoding and composing the coded moving image. CONSTITUTION: Each frame of a series of moving images is analyzed in an image analysis part 11 and a feature point is extracted. A segment is extracted from the first frame of the images by an initialization part 12, depth information is added to the segment and the segment is stored as a three-dimensional model in a storage part 13. In a motion estimation/correspondence search part 15, the corresponding of the motions between the frames of each three-dimensional model and each feature point is performed. The deviation of projected image that each three-dimensional model is moved by the motion estimated value and each feature point of the model and an actual image is determined. Based on the deviation, the three-dimensional shape information on each three- dimensional model is updated by a Kalman filter 21. As for the first frame of the images, the information on each segment and the analysis value of each feature point are coded. As for the second frame or the subsequent frames, the motions between the frames of the three-dimensional model of each segment and the deviation of each feature point are coded.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像を分析して得られ
た特徴点の各フレーム間の移動を検出し、その移動を効
率よく符号化することにより連続的な動画像を符号化す
る動画像処理装置、および、その符号化された動画像系
列を復号化する動画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects a movement between frames of feature points obtained by analyzing an image, and codes the movement efficiently to code a continuous moving image. The present invention relates to a moving image processing device and a moving image processing device that decodes the encoded moving image sequence.

【0002】[0002]

【従来の技術】画像を分析しエッジを検出し、エッジの
位置とエッジを構成する各点の分析値とDC成分を抽出
しておけば、それ以外の画像を用いることなく元の画像
を合成できる。このときの情報量は元の画像の全画素に
対する情報量より少なくすることが可能で情報圧縮が可
能となる。動画像の場合、この方法により最初の1フレ
ーム目を圧縮をし、2フレーム目以降においては1フレ
ーム目のエッジを構成する各点がどの位置に移動したか
を追跡し、1フレーム目で求めた各点の分析値を追跡後
の各点に移すようにすることで、各フレームごとに分析
値を求めなくとも画像を合成できる。したがって、最初
のフレームのエッジを構成する各点の位置と分析値、フ
レーム間での各点の移動量および各フレームごとのDC
成分を情報とすることで動画像圧縮が可能である。
2. Description of the Related Art If an image is analyzed to detect an edge, and an edge position, an analysis value of each point constituting the edge and a DC component are extracted, the original image is synthesized without using any other image. it can. The amount of information at this time can be made smaller than the amount of information for all the pixels of the original image, and the information can be compressed. In the case of a moving image, the first frame is compressed by this method, and in the second and subsequent frames, it is tracked to which position each point constituting the edge of the first frame has moved, and the first frame is obtained. By transferring the analysis value of each point to each point after tracking, the image can be synthesized without obtaining the analysis value for each frame. Therefore, the position and analysis value of each point constituting the edge of the first frame, the movement amount of each point between frames, and the DC for each frame.
Moving images can be compressed by using the components as information.

【0003】より高圧縮率で動画像を符号化する方法と
して、動画像を構成する各物体の3次元モデルを使って
動画像を符号化する方法が提案されている。各物体の3
次元形状とその動きが分かれば、元の動画像と全く同じ
動画像が生成できる。そのような、動画像系列の中から
3次元形状モデルを抽出し、そのモデルを利用して連続
的な動画像を符号化する方法としては、Hans George Mu
smann 、Michael Hotter、Jorn Ostermannらによる「OB
JECT-ORIENTED analysis coding of moving images.」
〔Signal processing:Image Communication 1(1989):11
7-138,Elsvier SCIENCE PUBLISHERS B.V. 〕に開示され
ている方法がある。この方法によれば、エッジ部分につ
いて動きベクトルを求めそれを利用して奥行きを求め、
エッジ以外の部分については奥行きを補間して、3次元
形状を推測する。また、輝度情報は、3次元上に属性と
してマッピングし、補間された3次元形状のデータと共
に伝送を行っている。
As a method of encoding a moving image at a higher compression rate, a method of encoding a moving image using a three-dimensional model of each object forming the moving image has been proposed. 3 for each object
If the two-dimensional shape and its movement are known, a moving image that is exactly the same as the original moving image can be generated. As a method for extracting a three-dimensional shape model from a moving image sequence and coding a continuous moving image using the model, Hans George Mu
OB by smann, Michael Hotter, Jorn Ostermann and others
JECT-ORIENTED analysis coding of moving images. "
(Signal processing: Image Communication 1 (1989): 11
7-138, Elsvier SCIENCE PUBLISHERS BV]. According to this method, the motion vector is calculated for the edge part and the depth is calculated using it.
For a portion other than the edge, the three-dimensional shape is estimated by interpolating the depth. In addition, the luminance information is mapped as an attribute in three dimensions and is transmitted together with the interpolated three-dimensional shape data.

【0004】[0004]

【発明が解決しようとする課題】しかし、前述したエッ
ジを構成する各点の移動量を符号化する方法において
は、各フレームのエッジを構成する各点の2次元的な移
動量の分布が広範になるため、符号化の効率を上げるこ
とができず、十分な圧縮率が得られなかった。
However, in the above-described method of encoding the movement amount of each point forming the edge, the distribution of the two-dimensional movement amount of each point forming the edge of each frame is wide. Therefore, the encoding efficiency cannot be improved and a sufficient compression rate cannot be obtained.

【0005】また、前述した3次元モデルを使って動画
像を符号化する方法においては、輝度が急変するエッジ
部分さえ動きベクトルを求めることは難しく、動きベク
トルから正確な奥行きを推測することは非常に難しい。
したがって、エッジ部分の奥行きを補間して3次元形状
を推測しても、正確な3次元形状が求められなかった。
そのため、実際の形状とのずれがあるため余分な情報が
増加して圧縮率が上げられなかった。さらに、3次元上
に属性としてマッピングした輝度情報を初期情報とし伝
送するので初期情報量が多いという問題もあった。
Further, in the method of encoding a moving image using the above-mentioned three-dimensional model, it is difficult to obtain a motion vector even in an edge portion where the brightness changes abruptly, and it is very difficult to estimate an accurate depth from the motion vector. It's difficult.
Therefore, even if the three-dimensional shape is estimated by interpolating the depth of the edge portion, an accurate three-dimensional shape cannot be obtained.
Therefore, since there is a deviation from the actual shape, extra information increases and the compression rate cannot be increased. Further, there is a problem that the amount of initial information is large because the luminance information mapped as an attribute in three dimensions is transmitted as the initial information.

【0006】したがって、本発明の目的は、より高い圧
縮率で連続的な動画像を符号化可能な動画像処理装置
と、その符号化された動画像を復号化する動画像処理装
置を提供することにある。
Therefore, an object of the present invention is to provide a moving image processing apparatus capable of encoding a continuous moving image at a higher compression rate, and a moving image processing apparatus for decoding the encoded moving image. Especially.

【0007】[0007]

【課題を解決するための手段】前記課題を解決するため
に、動画像を分析して得られたエッジを1つの動きで表
せるカテゴリに分け、各カテゴリについてその動きを推
定し、前記動き推定値に基づいて移動させた前記各カテ
ゴリに属するエッジの特徴点の位置と、その特徴点の実
際の位置との差を各特徴点について求め、前記各カテゴ
リごとの動き推定値と前記各特徴点の位置の差を、フレ
ーム間の各特徴点の移動の情報とするようにした。ま
た、各フレーム間の前記各カテゴリに属するエッジの動
きよりそのカテゴリの3次元位置情報を獲得するように
し、その3次元位置情報を用いて前記動きの推定を行う
ようにした。
In order to solve the above-mentioned problems, the edges obtained by analyzing a moving image are divided into categories that can be represented by one motion, the motion is estimated for each category, and the motion estimation value is calculated. The difference between the position of the feature point of the edge belonging to each category moved based on the above and the actual position of the feature point is calculated for each feature point, and the motion estimation value for each category and the feature point The position difference is used as information on the movement of each feature point between frames. Further, the three-dimensional position information of the category is acquired from the motion of the edge belonging to each category between the frames, and the motion is estimated using the three-dimensional position information.

【0008】したがって、本発明の連続的な動画像を符
号化する動画像処理装置は、連続的な動画像の各フレー
ムより特徴点を抽出する画像分析手段と、前記連続的な
動画像の最初のフレームよりセグメントを抽出するセグ
メンテーション手段と、前記画像分析手段により抽出さ
れた特徴点に基づいて、前記セグメンテーション手段に
より抽出された各セグメントごとの3次元モデル形状情
報を記憶する形状記憶手段と、前記形状記憶手段に記憶
されている各3次元モデルのフレーム間の動きを推定
し、各フレームの3次元モデルの特徴点を前記推定され
た動きに基づいて移動させ投影した特徴点と、当該フレ
ームの次フレームの特徴点とを対応付ける動き推定対応
探索手段と、前記対応付けられた各特徴点間の位置の差
を求める差算出手段と、前記各特徴点間の位置の差に基
づいて、前記形状記憶手段に記憶されている各3次元モ
デル形状情報を更新する更新手段と、前記セグメンテー
ション手段により抽出された前記連続的な動画像の最初
のフレームの各セグメントと、前記画像分析手段により
分析された各セグメントの各特徴点の分析値とを、初期
データとして符号化する初期符号化手段と、前記動き推
定対応探索手段により各フレームごとに得られた前記各
セグメントの3次元モデルのフレーム間の動き推定値
と、前記差算出手段により算出された各特徴点間の位置
の差とを、符号化する符号化手段とを有する。
Therefore, the moving image processing apparatus for encoding a continuous moving image according to the present invention includes an image analyzing means for extracting a feature point from each frame of the continuous moving image and a first moving image of the continuous moving image. Segmentation means for extracting a segment from the frame, shape storage means for storing three-dimensional model shape information for each segment extracted by the segmentation means based on the feature points extracted by the image analysis means, The motion between the frames of each three-dimensional model stored in the shape storage means is estimated, the feature points of the three-dimensional model of each frame are moved and projected based on the estimated motion, and the feature points of the frame. Motion estimation correspondence search means for associating the feature points of the next frame with each other, and difference calculating means for obtaining the position difference between the associated feature points. , Updating means for updating each three-dimensional model shape information stored in the shape storing means on the basis of the difference in position between the respective feature points, and the continuous moving image extracted by the segmentation means. Each segment of the first frame and an analysis value of each feature point of each segment analyzed by the image analysis unit are encoded as initial data by an initial encoding unit and the motion estimation correspondence search unit for each frame. And an encoding unit that encodes the motion estimation value between the frames of the three-dimensional model of each segment obtained above and the position difference between the feature points calculated by the difference calculating unit.

【0009】また、本発明の符号化された連続的な動画
像を復号化する動画像処理装置は、符号化された初期デ
ータより、連続的な動画像の最初のフレームを構成する
各セグメントの特徴点と、該各特徴点の分析値とを復号
化する初期復号化手段と、前記初期復号化手段により復
号化された各セグメントごとの特徴点に基づいて、各セ
グメントごとの3次元モデル形状情報として記憶する形
状記憶手段と、符号化された各フレームごとのデータよ
り、各セグメントの3次元モデルのフレーム間の動き推
定値と、前記動き推定値に基づいて3次元モデルを移動
させた投影像の特徴点の位置と当該フレームの次フレー
ムの対応する特徴点の位置との差とを復号化する復号化
手段と、前記対応する特徴点の位置の差に基づいて、前
記形状記憶手段に記憶されている各セグメントごとの3
次元モデルの形状情報を更新する更新手段と、前記形状
記憶手段に記憶されている各セグメントの3次元モデル
形状情報に基づいて、各フレームごとの画像を合成する
画像合成手段とを有する。
Further, the moving image processing apparatus for decoding a coded continuous moving image according to the present invention uses the encoded initial data for each segment constituting the first frame of the continuous moving image. A three-dimensional model shape for each segment based on the characteristic points and the initial decoding means for decoding the analysis value of each characteristic point, and the characteristic points for each segment decoded by the initial decoding means. A shape storage unit that stores the information, and a motion estimation value between frames of the three-dimensional model of each segment based on the encoded data of each frame, and a projection obtained by moving the three-dimensional model based on the motion estimation value. Decoding means for decoding the difference between the position of the feature point of the image and the position of the corresponding feature point of the next frame of the frame, and the shape storage means based on the difference between the positions of the corresponding feature points. 3 of each segment being 憶
It has an updating means for updating the shape information of the dimensional model, and an image synthesizing means for synthesizing the image of each frame based on the three-dimensional model shape information of each segment stored in the shape storing means.

【0010】好適には、前記形状記憶手段は、当該各特
徴点に所定の奥行き情報を付与し、各セグメントを平板
状の3次元モデルとした3次元モデル形状情報を初期デ
ータとして記憶する。また好適には、前記更新手段は、
各セグメントの3次元モデルのフレーム間の動き推定値
に基づいて3次元モデルを移動させた投影像の特徴点の
位置を状態量、当該フレームの次フレームの対応する特
徴点の実際の位置を観測量、対応する各特徴点間の誤差
をノイズとした時にカルマンフィルタにより前記状態量
の最小自乗推定値を得ることにより該状態量を更新す
る。
Preferably, the shape storage means gives predetermined depth information to the respective feature points and stores three-dimensional model shape information in which each segment is a flat plate-shaped three-dimensional model as initial data. Also preferably, the updating means is
Observing the position of the characteristic point of the projected image obtained by moving the three-dimensional model based on the motion estimation value between the frames of the three-dimensional model of each segment, and the actual position of the corresponding characteristic point of the next frame of the frame. When the amount and the error between the corresponding feature points are noise, the Kalman filter obtains the least squares estimated value of the state amount to update the state amount.

【0011】[0011]

【作用】本発明の連続的な動画像を符号化する動画像符
号化装置においては、動画像系列の1フレーム目の各セ
グメントの2次元形状情報に、所定の奥行き方向の情報
を付加して3次元モデルの初期値とし、その3次元モデ
ルの動きを推定し、その推定に基づいて得られる画像と
入力される各フレームの画像の各特徴点の位置を比較
し、その3次元モデルの全体的な動きと各特徴点のズレ
を抽出し、その3次元モデルの全体の動き(動き推定
値)、および、各特徴点のズレに基づいて、順次前記3
次元モデルを更新しながら、それを各フレームの特徴点
の移動の情報としている。したがって、各特徴点の移動
に関する情報の分布が局在化し、符号化の効率が上昇す
る。
In the moving picture coding apparatus for coding continuous moving pictures of the present invention, predetermined depth direction information is added to the two-dimensional shape information of each segment of the first frame of the moving picture sequence. Using the initial value of the three-dimensional model as an estimate, the motion of the three-dimensional model is estimated, and the position of each feature point of the image obtained based on the estimation and the image of each frame to be input is compared to determine the entire three-dimensional model. Motion and the deviation of each feature point are extracted, and based on the overall movement (motion estimation value) of the three-dimensional model and the deviation of each feature point, the 3
While updating the dimensional model, it is used as information on the movement of the feature points in each frame. Therefore, the distribution of information regarding the movement of each feature point is localized, and the coding efficiency is increased.

【0012】また、本発明の符号化された連続的な動画
像を復号化する動画像処理装置においては、符号化され
た1フレーム目の各セグメントの2次元形状情報に所定
の奥行き方向の情報を付加して3次元モデル形状情報と
して記憶し、符号化された各フレームごとの前記3次元
モデルの動きと、該3次元モデルを構成する各特徴点の
ズレに基づいて順次前記3次元モデルを更新し、該更新
された3次元モデルの情報に基づいて各フレームの画像
を合成している。したがって、高圧縮率で符号化された
各セグメントの移動の情報と各特徴点のズレの情報より
元の動画像が忠実に復号することが可能となり、前記連
続的な動画像を符号化する動画像処理装置と協働するこ
とができる。
Further, in the moving image processing apparatus for decoding a continuous encoded moving image according to the present invention, predetermined depth direction information is added to the encoded two-dimensional shape information of each segment of the first frame. Are stored as three-dimensional model shape information, and the three-dimensional model is sequentially calculated based on the movement of the encoded three-dimensional model for each frame and the deviation of each feature point forming the three-dimensional model. The image of each frame is updated, and the image of each frame is synthesized based on the updated information of the three-dimensional model. Therefore, it is possible to faithfully decode the original moving image from the information on the movement of each segment and the information on the shift of each feature point encoded at a high compression rate, and a moving image encoding the continuous moving image can be obtained. It can cooperate with an image processing device.

【0013】[0013]

【実施例】本発明の一実施例の動画像符号化装置につい
て、図1〜図4を参照して説明する。図1は、本発明の
一実施例の動画像符号化装置10の構成を示すブロック
図である。動画像符号化装置10は、画像分析部11、
初期設定部12、記憶部13、動き推定・対応探索部1
5、動き処理部16、投影部17、量子化部19、カル
マンフィルタ21、補正処理部22、および、符号化部
23より構成される。本実施例の動画像符号化装置10
は、VTRまたはビデオなどからの動画像系列から図示
せぬ連続シーケンス検出部により検出された連続した画
像データを入力され、その各画像データ系列を圧縮し、
伝送路50に送出する圧縮伝送装置である。また、この
動画像符号化装置10は、後述する動画像復号化装置3
0と協働して画像処理系を構成する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A moving picture coding apparatus according to an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing the configuration of a moving picture coding apparatus 10 according to an embodiment of the present invention. The moving image coding apparatus 10 includes an image analysis unit 11,
Initial setting unit 12, storage unit 13, motion estimation / correspondence search unit 1
5, a motion processing unit 16, a projection unit 17, a quantization unit 19, a Kalman filter 21, a correction processing unit 22, and an encoding unit 23. Moving picture coding apparatus 10 of the present embodiment
Is input with continuous image data detected by a continuous sequence detection unit (not shown) from a moving image sequence from a VTR or a video, and compresses each image data sequence,
It is a compression transmission device for sending to the transmission line 50. In addition, the moving picture coding apparatus 10 is a moving picture decoding apparatus 3 described later.
An image processing system is constructed in cooperation with 0.

【0014】以下、各部の動作について説明する。画像
分析部11は、順次入力される各フレームの画像データ
を分析し、特徴点を抽出し、特徴点の位置と分析値を求
める。本実施例においては、入力画像データに対して、
異なる解像度スケールを持つ複数のフィルタで画像デー
タの分析を行い、エッジを構成する点を特徴点として検
出し、入力画像データを特徴画像データであるエッジの
画像データに変換し、そのエッジを構成する各点の位置
と分析値を抽出する。
The operation of each unit will be described below. The image analysis unit 11 analyzes the sequentially input image data of each frame, extracts the characteristic points, and obtains the positions of the characteristic points and the analysis values. In this embodiment, for input image data,
Image data is analyzed with multiple filters with different resolution scales, points that make up edges are detected as feature points, input image data is converted to image data of edges that are feature image data, and the edges are made up. The position of each point and the analysis value are extracted.

【0015】また画像分析部11は、各連続シーケンス
の1フレーム目の入力画像データより、画像を合成する
ために必要なDC成分を抽出する。その1フレーム目の
画像データに対して得られた特徴点の位置と分析値は初
期設定部12と符号化部23に、DC成分は符号化部2
3に出力される。また、2フレーム目以降の画像データ
に対する特徴点の位置と分析値は動き推定・対応探索部
15と補正処理部22に出力される。
Further, the image analysis unit 11 extracts the DC component necessary for synthesizing images from the input image data of the first frame of each continuous sequence. The position and analysis value of the feature point obtained for the image data of the first frame are stored in the initial setting unit 12 and the encoding unit 23, and the DC component is stored in the encoding unit 2.
3 is output. Further, the position of the feature point and the analysis value for the image data of the second and subsequent frames are output to the motion estimation / correspondence search unit 15 and the correction processing unit 22.

【0016】初期設定部12は、画像分析部11より入
力された1フレーム目の特徴画像データの特徴点の位置
と分析値より、セグメンテーションを行い、この画像デ
ータを構成しているセグメントを抽出し、各セグメント
毎の特徴点の情報を記憶部13に記憶する。このセグメ
ンテーションは、カラー画像から赤・緑・青・明度・色
相・彩度の信号、および、テレビ信号に対応したY信
号、I信号、Q信号の合計9種類の特徴を抽出し、その
特徴に関するヒストグラムに基づいてセグメンテーショ
ンを行う再帰的しきい値処理により行う。
The initial setting section 12 performs segmentation based on the positions and analysis values of the characteristic points of the characteristic image data of the first frame input from the image analysis section 11 and extracts the segments forming this image data. The information of the characteristic points of each segment is stored in the storage unit 13. In this segmentation, a total of nine types of features of red, green, blue, lightness, hue, and saturation signals, and Y signals, I signals, and Q signals corresponding to television signals are extracted from the color image, and related to the features. It is performed by recursive thresholding which performs segmentation based on the histogram.

【0017】記憶部13は、各セグメントの各特徴点に
ついて、位置情報X,Y,Zと、分析値g、確率共分散
行列v、付加情報aを記憶する記憶手段であり、メモリ
により構成される。記憶部13に記憶されている情報
は、入力された連続シーケンスがS個のセグメントを有
し、各セグメントがUs 個(s=1〜S)のエッジより
構成され、その各エッジがNsu個(u=1〜Us 、s=
1〜S)の特徴点より構成される場合、式1のように表
される。
The storage unit 13 is a storage means for storing the position information X, Y, Z, the analysis value g, the probability covariance matrix v, and the additional information a for each feature point of each segment, and is composed of a memory. It The information stored in the storage unit 13 is such that the input continuous sequence has S segments, each segment is composed of Us (s = 1 to S) edges, and each edge is Nsu ( u = 1 to Us, s =
1 to S), it is expressed by Equation 1.

【0018】[0018]

【数1】 [Equation 1]

【0019】なお、確率共分散行列vsun (n=1〜N
su、u=1〜Us 、s=1〜S)は、各エッジを構成す
る点のちらばりであるので、同一のエッジを構成する各
特徴点については同一の値が付される。
The probability covariance matrix vsun (n = 1 to N)
Since su, u = 1 to Us, and s = 1 to S) are the scattering of the points forming each edge, the same value is given to each feature point forming the same edge.

【0020】記憶部13に記憶されている情報は、ま
ず、1フレーム目についての情報が初期設定部12より
入力され、初期データが生成される。その後、2フレー
ム目以降の画像データが入力されるごとに、後述するカ
ルマンフィルタ21、および、補正処理部22によりそ
の内容が更新される。
As the information stored in the storage unit 13, first, the information on the first frame is input from the initial setting unit 12, and initial data is generated. After that, every time the image data of the second and subsequent frames is input, the contents thereof are updated by the Kalman filter 21 and the correction processing unit 22, which will be described later.

【0021】動き推定・対応探索部15は、前フレーム
の画像のエッジ画像の各点の情報{Fsun }と現フレー
ムのエッジ位置と分析値から、セグメントの動いた量を
推定し、前フレームの各点の情報{Fsun }と、現フレ
ームのエッジ画像の特徴点の対応付けを行う。その方法
について具体的に以下に説明する。まず、図2におい
て、座標系XYZはカメラ座標系で、座標系の原点はレ
ンズの中心で、光軸は奥行き方向となるZ軸と一致させ
ているものとする。このような座標系におていは、点P
の像はXY平面に平行で原点からカメラの焦点距離fだ
け離れた所に設置された平面に投影されると考えること
ができる。この投影面上の点Pの像の位置がカメラより
入力された画像上の画素の位置となる。その投影面に対
して、その面のZ軸との交点を原点とし、X軸およびY
軸と平行な座標系xyを設定する。
The motion estimation / correspondence search unit 15 estimates the amount of movement of the segment from the information {Fsun} of each point of the edge image of the image of the previous frame, the edge position of the current frame and the analysis value, and calculates the amount of movement of the segment. The information {Fsun} of each point is associated with the feature point of the edge image of the current frame. The method will be specifically described below. First, in FIG. 2, it is assumed that the coordinate system XYZ is a camera coordinate system, the origin of the coordinate system is the center of the lens, and the optical axis is aligned with the Z axis that is the depth direction. In such a coordinate system, the point P
It can be considered that the image of is projected on a plane which is parallel to the XY plane and is separated from the origin by the focal length f of the camera. The position of the image of the point P on the projection plane becomes the position of the pixel on the image input from the camera. With respect to the plane of projection, the origin is the point of intersection of the plane with the Z axis, and the X axis and Y
A coordinate system xy parallel to the axis is set.

【0022】XYZ空間内の点Pの座標をp=(Xp ,
Yp ,Zp )、点Pのxy平面上の像である点Qの座標
をq=(xq ,yq )とすると、点Qの座標qは式2の
ように表される。
The coordinates of the point P in the XYZ space are p = (Xp,
Yp, Zp) and the coordinates of the point Q, which is the image of the point P on the xy plane, are q = (xq, yq), the coordinates q of the point Q are expressed by equation 2.

【0023】[0023]

【数2】 [Equation 2]

【0024】あるセグメントs(s=1〜S)がUs 個
(s=1〜S)のエッジより構成され、その各エッジが
Nsu個(u=1〜Us,s=1〜S)の点の情報で表さ
れ、それら各点の位置はpsun =(Xsun ,Ysun ,Z
sun )(n=1〜Nsu)で表されるとする。このセグメ
ントが、相対的にX軸周りにΔωx、Y軸周りにΔω
y、Z軸周りにΔωz回転し、また、Δt=(Δtx,
Δty,Δtz)だけ平行移動した場合、このセグメン
トを構成する各点psun の移動量Δpsun =(ΔXsun
,ΔYsun ,ΔZsun )は、前記各軸周りの回転Δω
x,Δωy,Δωz、および,平行移動量Δtが小さい
とすると、式3のようになる。
A segment s (s = 1 to S) is composed of Us (s = 1 to S) edges, and each edge is Nsu (u = 1 to Us, s = 1 to S) points. The position of each of these points is represented by psun = (Xsun, Ysun, Z
sun) (n = 1 to Nsu). This segment is relatively Δωx around the X axis and Δω around the Y axis.
It rotates about the y and Z axes by Δωz, and Δt = (Δtx,
In the case of parallel translation by Δty, Δtz), the amount of movement of each point psun constituting this segment Δpsun = (ΔXsun
, ΔYsun, ΔZsun) is the rotation Δω about each axis.
Assuming that x, Δωy, Δωz, and the parallel movement amount Δt are small, Expression 3 is obtained.

【0025】[0025]

【数3】 (Equation 3)

【0026】点psun のxy平面上への投影点をqsun
=(xsun ,ysun )とすると、前記セグメントの移動
にともなう投影点qsun の移動量Δqsun =(Δxsun
,Δysun )は式4のようになる。
Let qsun be the projection point of the point psun on the xy plane.
= (Xsun, ysun), the amount of movement of the projection point qsun due to the movement of the segment Δqsun = (Δxsun
, Δysun) is given by equation 4.

【0027】[0027]

【数4】 [Equation 4]

【0028】式2と式4より式5が得られる。From Equations 2 and 4, Equation 5 is obtained.

【0029】[0029]

【数5】 (Equation 5)

【0030】式2および式5を、N個の点の内のm=1
〜MのM個に適用すると、式6のようになる。
Equations 2 and 5 are given as follows: m = 1 out of N points
When it is applied to M pieces of ~ M, it becomes as shown in Expression 6.

【0031】[0031]

【数6】 (Equation 6)

【0032】なお、Δtt は行列Δtの転置行列を示
す。Δqについては、新たな画像が入力される前に得て
いた3次元位置pmの式2による仮想の投影点qm’に
対応する画像上の点が分からないので、図3に示すよう
に、3次元位置情報の仮想の投影像Ipにおいて物体像
Irの投影特徴点qmから最も近い点と仮定する。M≧
3のとき回転および平行移動量のパラメータΔCの推定
値ΔC’は、最小自乗法により式7により求められる。
Note that Δt t represents a transposed matrix of the matrix Δt. Regarding Δq, since the point on the image corresponding to the virtual projection point qm ′ by the equation 2 of the three-dimensional position pm obtained before the new image is input is unknown, as shown in FIG. It is assumed that the virtual projection image Ip of the dimensional position information is the closest point to the projection feature point qm of the object image Ir. M ≧
When the value is 3, the estimated value ΔC ′ of the parameter ΔC of the amount of rotation and the amount of translation is obtained by the equation 7 by the least square method.

【0033】[0033]

【数7】 (Equation 7)

【0034】式7により得られたΔC’による3次元位
置情報の移動量Δqsun を式2より計算して、新たに式
3により仮想の投影像を作り、同様に近い点を対応点と
仮定し、式7の計算を繰り返し、式8のようにしていく
と、仮想の投影像と物体像Irは近づく。
The movement amount Δqsun of the three-dimensional position information by ΔC ′ obtained by the equation 7 is calculated by the equation 2 and a virtual projected image is newly created by the equation 3, and similarly similar points are assumed to be corresponding points. If the calculation of Expression 7 is repeated and Expression 8 is repeated, the virtual projected image and the object image Ir come close to each other.

【0035】[0035]

【数8】 (Equation 8)

【0036】この計算を、Σ|Δqsun |2 が予め定め
た所定値ε以下になるまで繰り返すことにより、元の画
像の3次元位置情報psun に対する新たな画像の対応点
qsun が求められる。
By repeating this calculation until Σ│Δqsun│ 2 becomes equal to or less than the predetermined value ε, the corresponding point qsun of the new image with respect to the three-dimensional position information psun of the original image is obtained.

【0037】以上述べたような動き推定・対応探索の方
法によれば、物体を剛体と仮定し、回転および平行移動
についての6個のパラメータで3次元位置情報を構成す
る点を拘束することで、個々の点それぞれ独立にではな
く、包括的に動き推定・対応探索が行われている。した
がって、全体として矛盾のない対応関係が全ての点につ
いて得られ、誤対応による3次元位置情報におけるノイ
ズが減る。
According to the method of motion estimation / correspondence search as described above, the object is assumed to be a rigid body, and the points constituting the three-dimensional position information are constrained by the six parameters of rotation and translation. , Motion estimation / correspondence search is performed comprehensively, not independently for each point. Therefore, as a whole, a consistent correspondence relationship is obtained for all points, and noise in the three-dimensional position information due to incorrect correspondence is reduced.

【0038】動き処理部16は、動き推定・対応探索部
15により得られた、各セグメントの平行移動量t、回
転移動量ω、によって各セグメントの情報{Fsun }の
位置情報を、3次元空間において平行および回転移動さ
せる。
The motion processing unit 16 obtains the position information of the information {Fsun} of each segment from the three-dimensional space by the parallel movement amount t and rotation movement amount ω of each segment obtained by the motion estimation / correspondence search unit 15. In parallel and rotational movement.

【0039】投影部17は、各セグメントの各点の3次
元位置psun =(Xsun ,Ysun ,Zsun )を画像上の
位置qsun =(xsun ,ysun )に変換し、得られた画
像上の点qsun に分析値gsun を与える。3次元位置p
sun から投影点qsun への変換は式3により行う。
The projection unit 17 converts the three-dimensional position psun = (Xsun, Ysun, Zsun) of each point of each segment into a position qsun = (xsun, ysun) on the image, and the obtained point qsun on the image. Is given an analytical value gsun. Three-dimensional position p
The conversion from sun to the projection point qsun is performed by Equation 3.

【0040】加算部18で、投影後の各特徴点の情報
{Fsun }の画像上での位置qsun'と対応する入力画像
のエッジ位置qsun との差を求める。
The addition section 18 obtains the difference between the position qsun 'on the image of the information {Fsun} of each feature point after projection and the corresponding edge position qsun of the input image.

【0041】量子化部19は、前記加算部18により求
められた差を量子化し、フラクチュエーションを求め
る。量子化方法としては、一定の適切な量子化ステップ
(たとえば1画素幅)による線形な量子化、いくつかの
線形でない量子化ステップを設定した非線形量子化、量
子化ステップを固定せず、入力される画像の性質により
量子化ステップを適宜変える量子化などがあり、要求さ
れる伝送レート、画質に応じて、適切な量子化方法を用
いれば良い。たとえば、高圧縮率が要求される場合に
は、量子化ステップを大きくしたり、画像に直線が多く
量子化ノイズによる直線の不連続性が目立つ場合は、非
線形量子化を行い、フラクチュエーションの小さい部分
の量子化を細かくするようにする。求められたフラクチ
ュエーションは、符号化部23およびカルマンフィルタ
21に入力される。なお、カルマンフィルタ21に入力
されるフラクチュエーションは、加算部20で再び投影
後の各特徴点の位置qsun'に対応づけられて入力され
る。
The quantizer 19 quantizes the difference obtained by the adder 18 to obtain a fraction. As the quantization method, linear quantization with a certain appropriate quantization step (for example, one pixel width), non-linear quantization with some non-linear quantization steps set, quantization step not fixed, and input is performed. There is quantization in which the quantization step is appropriately changed depending on the characteristics of the image to be read, and an appropriate quantization method may be used according to the required transmission rate and image quality. For example, if a high compression rate is required, increase the quantization step, or if there are many straight lines in the image and the discontinuity of the straight lines due to quantization noise is conspicuous, perform non-linear quantization and reduce the fractionation. Try to finely quantize the part. The calculated fraction is input to the encoding unit 23 and the Kalman filter 21. The fraction input to the Kalman filter 21 is input to the addition unit 20 again in association with the position qsun ′ of each feature point after projection.

【0042】カルマンフィルタ21は、前の画像におけ
る各セグメントの各点の情報{Fsun }の3次元位置p
sun とそれに対応する入力画像のエッジ位置qsun から
3次元位置psun を更新する。カルマンフィルタはノイ
ズを含むシステムにおいて時系列の観測量から状態量の
最小自乗推定値を逐次得ることのできるフィルタであ
る。本実施例において、状態量は3次元位置psun 、観
測量である2次元位置qsun である。2次元位置qsun
にはΔqsun の量子化によるノイズが含まれる。また、
動き推定値にもノイズが含まれる。初期値の平面上の3
次元形状{psun}は、カルマンフィルタによりセグメ
ントに動きがあるごとに、実際の3次元形状に近づくよ
うに更新されていく。各点の情報{Fsun }における確
率共分散行列vsun はpsun の確率共分散行列(3×
3)でpsun を更新するのに用いられ、同時に確率共分
散行列vsun も更新される。
The Kalman filter 21 determines the three-dimensional position p of the information {Fsun} of each point of each segment in the previous image.
The three-dimensional position psun is updated from the sun and the edge position qsun corresponding to the input image. The Kalman filter is a filter that can sequentially obtain a least squares estimation value of a state quantity from a time series observation quantity in a system including noise. In this embodiment, the state quantity is a three-dimensional position psun and a two-dimensional position qsun which is an observed quantity. Two-dimensional position qsun
Contains noise due to the quantization of Δqsun. Also,
The motion estimation value also contains noise. 3 on the plane of the initial value
The dimensional shape {psun} is updated by the Kalman filter so as to approach the actual three-dimensional shape each time there is a motion in the segment. The probability covariance matrix vsun at the information {Fsun} of each point is the probability covariance matrix (3 ×
3) is used to update psun, and at the same time the probability covariance matrix vsun is updated.

【0043】補正処理部22は、エッジを追跡する際
に、記憶されている前のフレームの画像に存在したエッ
ジが現在のフレームの画像に存在しなかったり(消
失)、逆に現在のフレームの画像に存在するエッジが、
記憶されている前のフレームの画像に存在しなかったり
(出現)した場合に、そのような、消失したエッジや、
新たに出現したエッジなどに対する処理を行う。補正処
理部22においては、まず、エッジの消失を検出し処理
し、次に出現したエッジを検出し処理する。出現したエ
ッジの処理としては、まず、既存のエッジに加えること
が可能か否かをチェックし、次に新しいセグメントを構
成するエッジか否か、未知のエッジとして保留しておく
否かをチェックする。
When the edge is traced, the correction processing unit 22 does not have the edge existing in the stored image of the previous frame in the image of the current frame (disappears), or conversely, the edge of the current frame is lost. The edges present in the image are
If it does not exist (appears) in the stored image of the previous frame, such a lost edge,
Processing for newly appeared edges is performed. In the correction processing unit 22, first, the disappearance of an edge is detected and processed, and the edge that appears next is detected and processed. The processing of the edge that has appeared is to first check whether it can be added to an existing edge, then check whether it is an edge that constitutes a new segment, and whether it is held as an unknown edge. .

【0044】以下、各処理方法について説明する。ま
ず、消失した点は、すぐに記憶部13から削除せず、消
失したという印を付加情報として付加した上で保存す
る。保存する際、消失した部分が属していたセグメント
の動き推定値に基づいて3次元位置psun を移動させ
る。確率共分散行列vsun 、分析値gsun 、および、属
するセグメントはそのままにしておく。
Each processing method will be described below. First, the disappeared point is not immediately deleted from the storage unit 13, but a mark of disappearance is added as additional information and stored. When saving, the three-dimensional position psun is moved based on the motion estimation value of the segment to which the lost portion belongs. The probability covariance matrix vsun, the analysis value gsun, and the segment to which they belong are left unchanged.

【0045】出現については、まず、入力画像における
エッジで記憶中の点と対応のなかった点を抜き出し、そ
れを出現エッジとする。出現エッジは連結性を調べて連
結した開曲線または閉曲線となる点の集合に分ける。次
に、過去に消失したエッジで再び出現したものが有るか
否かを調べる。記憶部13に記憶されている消失したと
いう印のついた点を、過去に属していたセグメントの動
きにしたがって3次元位置を移動させ投影する。そし
て、消失したという印のついた点を投影した付近に、新
たに出現したエッジが存在すれば、消失したという印を
除いてその点を対応の取れた点として復活させる。復活
させた点の3次元位置psun 、確率共分散行列vsun
は、カルマンフィルタ21により更新されるようにす
る。このような処理により、一時的に消失した部分は適
切に処理される。
Regarding appearance, first, a point in the input image that does not correspond to a stored point is extracted and used as an appearance edge. The appearance edge is divided into a set of points, which are connected open curves or closed curves by examining the connectivity. Next, it is checked whether or not there is an edge that has disappeared in the past and has reappeared. The point with the mark of disappearance stored in the storage unit 13 is projected by moving the three-dimensional position according to the movement of the segment that belonged to in the past. Then, if a newly appearing edge exists in the vicinity of the point where the point with the mark of disappearance is projected, that point is restored as a corresponding point except the mark of disappearance. Three-dimensional position psun of revived point, probability covariance matrix vsun
Are updated by the Kalman filter 21. Through such processing, the temporarily disappeared portion is appropriately processed.

【0046】消失した点の再出現の処理後、残った出現
エッジのそれぞれの集合について、さらに、対応のとれ
たセグメントに属するエッジか否かを判断する。この判
断は、対象の出現エッジが、対応のとれている画像のエ
ッジと矛盾なく接続しているか否かを調べる。これは、
接続している位置で特徴点の分析値gsun が概ね連続に
なっていれば矛盾なく接続しているとする。既存のセグ
メントに追加される出現エッジには、奥行き値(Z成
分)として対応があった入力画像のエッジと接続してい
る部分の奥行き値を与え、X、Y成分として、そのZ成
分の値に基づいて式2より求めた値を与える。また、分
析値は出現エッジの集合を構成する点の画像分析結果を
そのまま与える。
After the process of re-appearing the disappeared points, it is further judged whether or not each set of the remaining appearing edges belongs to the corresponding segment. This judgment checks whether or not the appearance edge of the target is consistently connected to the edge of the corresponding image. this is,
If the analysis values gsun of the feature points are almost continuous at the connected position, it is assumed that the characteristic values are connected without contradiction. The appearance edge added to the existing segment is given the depth value of the portion connected to the edge of the input image, which has a correspondence as the depth value (Z component), and the value of the Z component is given as the X and Y components. The value obtained from the equation 2 is given. Further, the analysis value gives the image analysis result of the points forming the set of appearance edges as it is.

【0047】そして、消失エッジとの対応付け、およ
び、既存セグメントへの追加のいずれにもあてはまら
ず、いずれのセグメントにも属していないと判断された
出現エッジは未知セグメントとする旨の印を付加情報と
して付加し、記憶部13に記憶しておく。そして、前述
した処理により、セグメントが未知という印を付けられ
ている特徴点は、次のように処理する。セグメントがS
個あるとする。各セグメントについて動き推定・対応探
索部15で動き推定値が求められているが、セグメント
未知の点が仮にセグメントs(s=1〜S)に属すると
し、3次元位置をセグメントsの動き推定値によって移
動させてみる。移動させる前のセグメント未知の特徴点
の3次元位置は、セグメントsの重心のZ成分、あるい
は、前の入力画像のエッジにおいて対応点が最も近くに
あったセグメントsに属する点のZ成分などを奥行き値
とし、初期設定部12と同様にして与える。セグメント
未知の点を移動後、投影した時、その近傍に対応する出
現エッジが存在するか否か探す。このような操作をS個
のセグメント全てに対して行い、その結果セグメント未
知の点は、最も良く対応する出現エッジがあったセグメ
ントに属するとする。
Then, the appearance edge determined not to be associated with the disappearing edge or added to the existing segment and not belonging to any segment is marked as an unknown segment. It is added as information and stored in the storage unit 13. Then, by the above-described processing, the feature points marked with the unknown segment are processed as follows. Segment is S
Suppose there are individual pieces. Although the motion estimation / correspondence search unit 15 obtains the motion estimation value for each segment, assuming that the unknown segment belongs to the segment s (s = 1 to S), the three-dimensional position is the motion estimation value of the segment s. Try to move by. The three-dimensional position of the unknown feature point of the segment before movement is the Z component of the center of gravity of the segment s, or the Z component of the point belonging to the segment s to which the corresponding point was closest at the edge of the previous input image. The depth value is given in the same manner as the initial setting unit 12. When a segment unknown point is moved and then projected, it is searched whether or not an appearance edge corresponding to the point exists. It is assumed that such an operation is performed for all S segments, and as a result, the unknown segment point belongs to the segment having the corresponding corresponding appearance edge.

【0048】適切に対応するセグメントが存在しなかっ
た出現エッジに対しては、まず、画素数が所定の数より
少ないものはノイズと考えて無視する。無視できない出
現エッジは(S+1)番目の新セグメントとする。
For an appearing edge for which a corresponding segment does not exist properly, a pixel having a number of pixels smaller than a predetermined number is considered to be noise and is ignored. The appearance edge that cannot be ignored is the (S + 1) th new segment.

【0049】符号化部23は、入力された動画像系列の
情報を符号化し、伝送路50に送出する。符号化部23
は、各連続画像シーケンスの1フレーム目の画像データ
については、画像分析部11より入力されたエッジ位置
qn、分析値、および、DC成分を符号化する。また、
2フレーム目以降の画像データについては、各セグメン
ト毎に、動き推定・対応探索部15より出力される動き
推定値と、量子化部19より出力されるフラクチュエー
ションΔqsun を符号化し出力する。
The encoding unit 23 encodes the input moving picture sequence information and sends it to the transmission line 50. Encoding unit 23
Encodes the edge position qn, the analysis value, and the DC component input from the image analysis unit 11 for the image data of the first frame of each continuous image sequence. Also,
For the image data of the second and subsequent frames, the motion estimation value output from the motion estimation / correspondence search unit 15 and the fractionation Δqsun output from the quantization unit 19 are encoded and output for each segment.

【0050】なお、2フレーム目以降の画像データの符
号化に際して、全体的にフラクチュエーションが小さい
セグメントについては画質に対する影響が少ないので、
動き推定値のみを送出するようにしてもよい。そのよう
な処理を行う符号化部について図4を参照して説明す
る。図4は符号化部23の当該構成部の構成を説明する
ブロック図である。量子化部19より入力された各セグ
メントごとのフラクチュエーションΔqsun は、演算部
231および記憶部232に入力される。演算部231
においては、入力された各フラクチュエーションの2乗
和Σ (|Δqsun |2)を算出する。また、記憶部232
に入力されたフラクチュエーションΔqsun は、各セグ
メントごとに記憶される。
When encoding the image data of the second and subsequent frames, since the segment having a small fractionation has little influence on the image quality,
Alternatively, only the motion estimation value may be transmitted. An encoding unit that performs such processing will be described with reference to FIG. FIG. 4 is a block diagram for explaining the configuration of the component of the encoding unit 23. The fractionation Δqsun for each segment input from the quantization unit 19 is input to the calculation unit 231 and the storage unit 232. Operation unit 231
In, the sum of squares Σ (| Δqsun | 2 ) of each input fraction is calculated. In addition, the storage unit 232
The fractionation Δqsun input to is stored for each segment.

【0051】比較部233においては演算部231によ
り算出されたフラクチュエーションの2乗和Σ (|Δq
sun |2)を予め定めた値εと比較する。そして、フラク
チュエーションの2乗和Σ (|Δqsun |2)が前記所定
値εより大きい場合に、フラクチュエーション符号化部
234に、符号化を行う旨の信号を出力する。フラクチ
ュエーションの2乗和Σ (|Δqsun |2)が前記所定値
ε以下の場合には、比較部233は前記信号を出力しな
い。なお、前記所定値εは再生時に要求される画質など
の条件により任意に設定される。動き推定値符号化器2
35は動き推定・対応探索部15より入力される各セグ
メントごとの動き推定値を符号化する。また、DC成分
符号化部236は、画像分析部11より入力されるDC
成分を符号化する。このように、図4に示したような構
成を含む符号化部においては、動き推定値とDC成分に
ついては各フレームごとに符号化を行うが、フラクチュ
エーションΔqsun については所定値より大きい変動が
あったのみ符号化を行う。したがって、圧縮率を上げる
ことができる。
In the comparison unit 233, the sum of squares of the fraction calculated by the calculation unit 231 Σ (| Δq
Compare sun | 2 ) with a predetermined value ε. Then, when the sum of squares Σ (| Δqsun | 2 ) of the fractionation is larger than the predetermined value ε, the signal indicating that the encoding is performed is output to the fractionation encoding unit 234. If the sum of squares Σ (| Δqsun | 2 ) of the fractionation is less than or equal to the predetermined value ε, the comparison unit 233 does not output the signal. The predetermined value ε is arbitrarily set according to conditions such as image quality required at the time of reproduction. Motion estimation value encoder 2
Reference numeral 35 encodes the motion estimation value for each segment input from the motion estimation / correspondence search unit 15. Further, the DC component encoding unit 236 receives the DC input from the image analysis unit 11.
Encode the components. As described above, in the coding unit including the configuration as shown in FIG. 4, the motion estimation value and the DC component are coded for each frame, but the fraction Δqsun varies more than a predetermined value. Encoding is performed. Therefore, the compression rate can be increased.

【0052】このように、動画像符号化装置10によれ
ば、各フレームごとのセグメントの動きを推定する段階
で、対応する特徴点を画像特徴も用いて最尤推定法によ
り統計的に求めており、適切に対応付けが可能である。
したがって、各特徴点のフラクチュエーションは十分小
さくすることができ、高圧縮率で符号化が可能となる。
As described above, according to the moving picture coding apparatus 10, at the stage of estimating the motion of the segment for each frame, the corresponding feature points are statistically obtained by the maximum likelihood estimation method also using the image features. And can be appropriately associated.
Therefore, the fractionation of each feature point can be made sufficiently small, and encoding can be performed at a high compression rate.

【0053】次に、本発明の一実施例の動画像復号化装
置について、図5を参照して説明する。図5は、本発明
の一実施例の動画像復号化装置30の構成を示すブロッ
ク図である。動画像復号化装置30は、初期復号化部3
4、初期設定部32、画像合成部31、記憶部33、補
正処理部42、動き処理部36、第2の投影部39、カ
ルマンフィルタ41、および、第1の投影部37より構
成される。本実施例の動画像復号化装置30は、伝送路
50より伝送された符号化された動画像系列を展開し、
画像合成部31より出力する動画像復号化装置である。
また、この動画像復号化装置30は、前述した動画像符
号化装置10と協働して画像処理系を構成する。
Next, a moving picture decoding apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 5 is a block diagram showing the configuration of the moving picture decoding apparatus 30 according to the embodiment of the present invention. The moving picture decoding apparatus 30 includes an initial decoding unit 3
4, an initial setting unit 32, an image synthesis unit 31, a storage unit 33, a correction processing unit 42, a motion processing unit 36, a second projection unit 39, a Kalman filter 41, and a first projection unit 37. The moving picture decoding apparatus 30 of the present embodiment expands the encoded moving picture sequence transmitted from the transmission line 50,
This is a moving image decoding device that outputs from the image combining unit 31.
Further, the moving picture decoding apparatus 30 constitutes an image processing system in cooperation with the moving picture coding apparatus 10 described above.

【0054】以下、各部の動作について説明する。復号
化部34は、伝送路50より伝送された信号を受信し、
復号化して各情報を取り出し、適宜各部に出力する受信
手段である。連続シーケンスの画像の1フレーム目のデ
ータについては、エッジ位置{qn}と、分析値、およ
び、DC成分を受信信号より分離し、エッジ情報と分析
値を初期設定部32に、エッジ情報と分析値とDC成分
を画像合成部31に出力する。また、2フレーム目以降
のデータについては、受信信号より、各セグメントごと
の動き推定値、フラクチュエーション、DC成分、およ
び、補正処理に関する情報に分離する。動き推定値は、
動き処理部36およびカルマンフィルタ41に、フラク
チュエーションは加算部40に、DC成分は画像合成部
31に、また補正処理に関する情報は補正処理部42に
出力される。
The operation of each section will be described below. The decoding unit 34 receives the signal transmitted from the transmission line 50,
It is a receiving unit that decrypts each piece of information, extracts it, and outputs it to each unit as appropriate. Regarding the data of the first frame of the image of the continuous sequence, the edge position {qn}, the analysis value, and the DC component are separated from the received signal, and the edge information and the analysis value are sent to the initial setting unit 32 and the edge information and the analysis value are analyzed. The value and the DC component are output to the image composition unit 31. The data of the second and subsequent frames is separated from the received signal into motion estimation values, fractions, DC components, and information regarding correction processing for each segment. The motion estimate is
The motion processing unit 36 and the Kalman filter 41 are output, the fractionation is output to the adding unit 40, the DC component is output to the image synthesizing unit 31, and the information regarding the correction process is output to the correction processing unit 42.

【0055】初期設定部32は、初期復号化部34より
入力されたエッジ情報および分析値に基づいて、各セグ
メントごとの、そのセグメントを構成する特徴点の情報
に展開し、記憶部33に記憶する。この処理により、動
画像復号化装置30の記憶部33の内容は、前述したよ
うな動画像符号化装置の記憶部内の情報と同一の内容と
なる。
Based on the edge information and the analysis value input from the initial decoding section 34, the initial setting section 32 develops into information of the characteristic points constituting each segment for each segment, and stores it in the storage section 33. To do. By this processing, the content of the storage unit 33 of the moving picture decoding device 30 becomes the same as the information in the storage unit of the moving picture coding device as described above.

【0056】記憶部33は、エッジ画像の各特徴点の情
報を、セグメントごとに記憶しておく記憶手段であり、
メモリにより構成され、前述した動画像符号化装置10
の記憶部13と同じ構成である。
The storage unit 33 is a storage means for storing information on each feature point of the edge image for each segment.
The moving picture coding apparatus 10 is composed of a memory and is described above.
The storage unit 13 has the same configuration.

【0057】動き処理部36は、復号化部34により入
力された動き推定値に基づいて、記憶部33に記憶され
ている各セグメントを移動させる。第2の投影部39
は、動き処理部36により移動された各セグメントを画
像上に投影する。加算部40は、第2の投影部39によ
り投影された画像情報に対して、復号化部34より入力
されたフラクチュエーションを各特徴点に加え、得られ
た画像情報をカルマンフィルタ41に入力する。
The motion processing unit 36 moves each segment stored in the storage unit 33 based on the motion estimation value input by the decoding unit 34. Second projection unit 39
Projects each segment moved by the motion processing unit 36 onto the image. The addition unit 40 adds the fractionation input from the decoding unit 34 to each feature point to the image information projected by the second projection unit 39, and inputs the obtained image information to the Kalman filter 41.

【0058】カルマンフィルタ41は、前述した動画像
符号化装置10のカルマンフィルタ21と同じ働きを
し、記憶部33に記憶されている各セグメントの情報を
更新する。
The Kalman filter 41 has the same function as the Kalman filter 21 of the moving picture coding apparatus 10 described above, and updates the information of each segment stored in the storage unit 33.

【0059】第1の投影部37は、カルマンフィルタ4
1により更新された画像情報に基づいて、各セグメント
を画像上に投影する。画像合成部31は、復号化部34
および第1の投影部37より入力されたエッジ情報、分
析値、およびDC成分に基づいて、画像データを復元し
出力する画像合成部である。まず、復号化部34より入
力された1フレーム目の画像データについて、エッジ画
像と各点の分析値、および、DC成分から、動画像符号
化装置への入力画像とほぼ等しい画像を合成する。ま
た、2フレーム目以降の画像データについては、第1の
投影部37より入力されたエッジ情報、および、分析値
と、復号化部34より入力されるDC成分に基づいて画
像を合成し、出力する。なお、その際、付加情報の消失
したという印のついた点を除いて画像合成を行う。
The first projection unit 37 uses the Kalman filter 4
Each segment is projected on the image based on the image information updated by 1. The image composition unit 31 includes a decoding unit 34.
And an image synthesizing unit that restores and outputs image data based on the edge information, the analysis value, and the DC component input from the first projection unit 37. First, with respect to the image data of the first frame input from the decoding unit 34, an image substantially equal to the input image to the moving image encoding apparatus is synthesized from the edge image, the analysis value of each point, and the DC component. As for the image data of the second and subsequent frames, the image is synthesized based on the edge information and the analysis value input from the first projection unit 37 and the DC component input from the decoding unit 34, and the image is output. To do. At that time, the image synthesis is performed except for the point that the additional information disappears.

【0060】以上、説明したように、動画像復号化装置
30によれば、3次元形状データとその動きの情報によ
り符号化された動画像系列においても、前記3次元形状
データで単純に表せない、消失したエッジ情報や出現エ
ッジ情報を補正することができるので、そのような動画
像についても、原画像に忠実に再現性よく復号化するこ
とができる。
As described above, according to the moving picture decoding apparatus 30, even a moving picture sequence encoded by three-dimensional shape data and its motion information cannot be simply represented by the three-dimensional shape data. Since the lost edge information and the appearing edge information can be corrected, even such a moving image can be decoded faithfully to the original image with good reproducibility.

【0061】[0061]

【発明の効果】本発明の動画像符号化装置によれば、フ
レーム間の特徴点の移動を効率よく符号化できるので、
高い圧縮率で連続的な動画像を符号化することができ
た。さらに、本発明の動画像復号化装置によれば、前記
動画像符号化装置により符号化された連続的な動画像信
号より、忠実に元の動画像を復号化できた。
According to the moving picture coding apparatus of the present invention, movement of feature points between frames can be efficiently coded.
We were able to encode continuous video with high compression rate. Further, according to the moving picture decoding apparatus of the present invention, the original moving picture can be faithfully decoded from the continuous moving picture signal coded by the moving picture coding apparatus.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の動画像符号化装置の構成を
示すブロック図である。
FIG. 1 is a block diagram showing the configuration of a moving picture coding apparatus according to an embodiment of the present invention.

【図2】図1に示した動画像符号化装置の動き推定・対
応探索の方法を説明する図であり、3次元空間の点Pを
望む様子を示し座標系の説明をする図である。
FIG. 2 is a diagram for explaining a method of motion estimation / correspondence search in the moving picture coding apparatus shown in FIG. 1, and is a diagram for explaining a coordinate system by showing a point P in a three-dimensional space.

【図3】図1に示した動画像符号化装置の動き推定・対
応探索の方法を説明する図であり、仮想の投影像の説明
をする図である。
FIG. 3 is a diagram for explaining a method of motion estimation / correspondence search of the moving image coding apparatus shown in FIG. 1, and is a diagram for explaining a virtual projected image.

【図4】図1に示した動画像符号化装置の符号化部の構
成の他の例を示す図である。
FIG. 4 is a diagram showing another example of the configuration of the encoding unit of the moving image encoding apparatus shown in FIG.

【図5】本発明の一実施例の動画像復号化装置の構成を
示すブロック図である。
FIG. 5 is a block diagram showing a configuration of a moving picture decoding apparatus according to an embodiment of the present invention.

【符号の説明】 10…動画像符号化装置 11…画像分析部 12…初期設定部 13…記憶部 14…初期符号化
部 15…動き推定・対応探索部 16…動き処理部 17…投影部 18…加算部 19…量子化部 20…加算部 21…カルマンフィルタ 22…補正処理部 23,23b…符号化部 231…演算部 232…記憶部 233…比較部 234…フラクチュエー
ション符号化部 235…動き推定値符号化器 236…DC成分符号化
部 30…動画像復号化装置 31…画像合成部 32…初期設定部 33…記憶部 34…初期復号化
部 36…動き処理部 37…第1の投影
部 39…第2の投影部 40…加算部 41…カルマンフィルタ 42…補正処理部 43…復号化部 50…伝送路
[Description of Codes] 10 ... Moving image coding device 11 ... Image analysis unit 12 ... Initial setting unit 13 ... Storage unit 14 ... Initial coding unit 15 ... Motion estimation / correspondence search unit 16 ... Motion processing unit 17 ... Projection unit 18 Addition unit 19 Quantization unit 20 Addition unit 21 Kalman filter 22 Correction processing unit 23, 23b Encoding unit 231 Calculation unit 232 Storage unit 233 Comparison unit 234 Fractionation encoding unit 235 Motion estimation Value encoder 236 ... DC component encoding unit 30 ... Moving image decoding device 31 ... Image combining unit 32 ... Initial setting unit 33 ... Storage unit 34 ... Initial decoding unit 36 ... Motion processing unit 37 ... First projection unit 39 ... 2nd projection part 40 ... Addition part 41 ... Kalman filter 42 ... Correction processing part 43 ... Decoding part 50 ... Transmission path

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 9061−5H G06F 15/70 410 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location 9061-5H G06F 15/70 410

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】連続的な動画像の各フレームより特徴点を
抽出する画像分析手段と、 前記連続的な動画像の最初のフレームよりセグメントを
抽出するセグメンテーション手段と、 前記画像分析手段により抽出された特徴点に基づいて、
前記セグメンテーション手段により抽出された各セグメ
ントごとの3次元モデル形状情報を記憶する形状記憶手
段と、 前記形状記憶手段に記憶されている各3次元モデルのフ
レーム間の動きを推定し、各フレームの3次元モデルの
特徴点を前記推定された動きに基づいて移動させ投影し
た特徴点と、当該フレームの次フレームの特徴点とを対
応付ける動き推定対応探索手段と、 前記対応付けられた各特徴点間の位置の差を求める差算
出手段と、 前記各3次元モデルのフレーム間の動き推定値および前
記各特徴点間の位置の差に基づいて、前記形状記憶手段
に記憶されている各3次元モデル形状情報を更新する更
新手段と前記セグメンテーション手段により抽出された
前記連続的な動画像の最初のフレームの各セグメント
と、前記画像分析手段により分析された各セグメントの
各特徴点の分析値とを初期データとして符号化する初期
符号化手段と、 前記動き推定対応探索手段により各フレームごとに得ら
れた前記各セグメントの3次元モデルのフレーム間の動
き推定値と、前記差算出手段により算出された各特徴点
間の位置の差とを符号化する符号化手段とを有し、前記
連続的な動画像を符号化する動画像処理装置。
1. An image analysis unit that extracts a feature point from each frame of a continuous moving image, a segmentation unit that extracts a segment from the first frame of the continuous moving image, and an image analysis unit that extracts the segment. Based on the feature points
A shape storage unit that stores the three-dimensional model shape information for each segment extracted by the segmentation unit, and a motion between frames of each three-dimensional model stored in the shape storage unit is estimated, and 3 of each frame is estimated. Motion estimation correspondence search means for associating a feature point obtained by moving and projecting a feature point of a dimensional model based on the estimated motion, and a feature point of the next frame of the frame, and between the associated feature points. A difference calculating unit for obtaining a position difference, and each three-dimensional model shape stored in the shape storage unit based on a motion estimation value between frames of each of the three-dimensional models and a position difference between the feature points. Updating means for updating information, each segment of the first frame of the continuous moving image extracted by the segmentation means, and the image analysis procedure. Initial coding means for coding, as initial data, the analysis value of each feature point of each segment analyzed by, and the frame of the three-dimensional model of each segment obtained for each frame by the motion estimation correspondence searching means. A moving image processing apparatus that encodes the continuous moving image, and has an encoding unit that encodes a motion estimation value between the feature points and a position difference between the respective feature points calculated by the difference calculating unit. .
【請求項2】前記符号化手段は、各フレーム間の前記差
算出手段により算出された各特徴点間の位置の差が予め
定めた所定値以上の場合にのみ、前記差算出手段により
算出された各特徴点間の位置の差を符号化する請求項1
記載の動画像処理装置。
2. The encoding means is calculated by the difference calculating means only when the difference between the positions of the characteristic points calculated by the difference calculating means between the frames is equal to or more than a predetermined value. The difference between the positions of the feature points is encoded.
The moving image processing apparatus described.
【請求項3】符号化された初期データより、連続的な動
画像の最初のフレームを構成する各セグメントの特徴点
と、該各特徴点の分析値とを復号化する初期復号化手段
と、 前記初期復号化手段により復号化された各セグメントご
との特徴点に基づいて、各セグメントごとの3次元モデ
ル形状情報として記憶する形状記憶手段と、 符号化された各フレームごとのデータより、各セグメン
トの3次元モデルのフレーム間の動き推定値と、前記動
き推定値に基づいて3次元モデルを移動させた投影像の
特徴点の位置と当該フレームの次フレームの対応する特
徴点の位置との差とを復号化する復号化手段と、 前記各セグメントの3次元モデルのフレーム間の動き推
定値および前記対応する特徴点の位置の差に基づいて、
前記形状記憶手段に記憶されている各セグメントごとの
3次元モデルの形状情報を更新する更新手段と、 前記形状記憶手段に記憶されている各セグメントの3次
元モデル形状情報に基づいて、各フレームごとの画像を
合成する画像合成手段とを有し、符号化された連続的な
動画像を復号化する動画像処理装置。
3. Initial decoding means for decoding the characteristic points of each segment forming the first frame of a continuous moving image and the analysis value of each characteristic point from the encoded initial data. Shape storage means for storing three-dimensional model shape information for each segment based on the feature points for each segment decoded by the initial decoding means, and for each segment from the encoded data for each frame Difference between the motion estimation value between frames of the 3D model, the position of the feature point of the projected image obtained by moving the 3D model based on the motion estimation value, and the position of the corresponding feature point of the next frame of the frame. Decoding means for decoding and, based on the difference between the motion estimation value between the frames of the three-dimensional model of each segment and the position of the corresponding feature point,
For each frame, based on the updating means for updating the shape information of the three-dimensional model for each segment stored in the shape storage means, and the three-dimensional model shape information for each segment stored in the shape storage means And an image synthesizing means for synthesizing the images of 1., and a moving image processing apparatus for decoding encoded continuous moving images.
【請求項4】前記形状記憶手段は、当該各特徴点に所定
の奥行き情報を付与し、各セグメントを平板状の3次元
モデルとした3次元モデル形状情報を初期データとして
記憶する請求項1〜3いずれか記載の動画像処理装置。
4. The shape storage means adds predetermined depth information to the respective feature points, and stores three-dimensional model shape information in which each segment is a flat plate-shaped three-dimensional model as initial data. 3. The moving image processing apparatus according to any one of 3 above.
【請求項5】前記更新手段は、各セグメントの3次元モ
デルのフレーム間の動き推定値に基づいて3次元モデル
を移動させた投影像の特徴点の位置を状態量、当該フレ
ームの次フレームの対応する特徴点の実際の位置を観測
量、対応する各特徴点間の誤差をノイズとし、カルマン
フィルタにより前記状態量の最小自乗推定値を求めるこ
とにより該3次元モデル形状情報を更新する請求項1〜
4いずれか記載の動画像処理装置。
5. The updating means sets the position of the feature point of the projected image obtained by moving the three-dimensional model based on the inter-frame motion estimation value of the three-dimensional model of each segment as the state quantity, and the position of the next frame of the frame. The three-dimensional model shape information is updated by obtaining the least-squares estimated value of the state quantity by a Kalman filter, using the actual position of the corresponding feature point as an observed amount, and the error between the corresponding feature points as noise. ~
4. The moving image processing apparatus according to any one of 4 above.
JP28565594A 1994-11-18 1994-11-18 Moving image processor Pending JPH08149458A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28565594A JPH08149458A (en) 1994-11-18 1994-11-18 Moving image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28565594A JPH08149458A (en) 1994-11-18 1994-11-18 Moving image processor

Publications (1)

Publication Number Publication Date
JPH08149458A true JPH08149458A (en) 1996-06-07

Family

ID=17694354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28565594A Pending JPH08149458A (en) 1994-11-18 1994-11-18 Moving image processor

Country Status (1)

Country Link
JP (1) JPH08149458A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100421208B1 (en) * 1996-10-30 2004-05-07 삼성전자주식회사 Wethod for synthesizing three-dimensional image
US8106921B2 (en) 2003-08-21 2012-01-31 Arm Norway As Differential encoding using a 3d graphics processor
US8115806B2 (en) 2005-03-30 2012-02-14 Nikon Corporation Image forming method and microscope device
WO2014077272A1 (en) * 2012-11-19 2014-05-22 株式会社Ihi Three-dimensional object recognition device and three-dimensional object recognition method
JP2020136943A (en) * 2019-02-21 2020-08-31 キヤノン株式会社 Image processing apparatus, image processing method and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100421208B1 (en) * 1996-10-30 2004-05-07 삼성전자주식회사 Wethod for synthesizing three-dimensional image
US8106921B2 (en) 2003-08-21 2012-01-31 Arm Norway As Differential encoding using a 3d graphics processor
US8421821B2 (en) 2003-08-21 2013-04-16 Arm Norway As Differential encoding using a 3D graphics processor
US8115806B2 (en) 2005-03-30 2012-02-14 Nikon Corporation Image forming method and microscope device
WO2014077272A1 (en) * 2012-11-19 2014-05-22 株式会社Ihi Three-dimensional object recognition device and three-dimensional object recognition method
JP2014102608A (en) * 2012-11-19 2014-06-05 Ihi Corp Three-dimensional object recognition device and three-dimensional object recognition method
US9652864B2 (en) 2012-11-19 2017-05-16 Ihi Corporation Three-dimensional object recognition device and three-dimensional object recognition method
JP2020136943A (en) * 2019-02-21 2020-08-31 キヤノン株式会社 Image processing apparatus, image processing method and program
US11823400B2 (en) 2019-02-21 2023-11-21 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium

Similar Documents

Publication Publication Date Title
KR102402494B1 (en) Motion compensation of geometric information
US11334969B2 (en) Point cloud geometry padding
JP2576771B2 (en) Motion compensation prediction device
KR100879324B1 (en) A method for compressing video information and a recording medium readable by a computer, reading thereof
JP3679426B2 (en) A system that encodes image data into multiple layers, each representing a coherent region of motion, and motion parameters associated with the layers.
US5936671A (en) Object-based video processing using forward-tracking 2-D mesh layers
JP2009501479A (en) Image coder for texture areas
WO1998059497A1 (en) Method for generating sprites for object-based coding systems using masks and rounding average
EP3922032A1 (en) Quantization step parameter for point cloud compression
AP504A (en) Computer compression of video images.
US11605184B2 (en) Point cloud global tetris packing
JP2006518157A (en) Method and apparatus for object-based motion compensation
JPH08149458A (en) Moving image processor
Malassiotis et al. Coding of video-conference stereo image sequences using 3D models
JP3663645B2 (en) Moving image processing apparatus and method
JPH08149460A (en) Moving image processor, moving image coder and moving image decoder
Gastaud et al. Video segmentation using active contours on a group of pictures
JPH08149459A (en) Moving image processor and moving image coder
JPH08161505A (en) Dynamic image processor, dynamic image encoding device, and dynamic image decoding device
JPH0491585A (en) Picture transmitting device
Cho et al. An object-oriented coder using block-based motion vectors and residual image compensation
JPH11346329A (en) Image processor, its method and image processing system
JPH08153210A (en) Encoding device and decoding device for moving image
JP2001008231A (en) Method and system for transmitting multiple viewpoint image of object in three-dimensional space
EP3970368A1 (en) Forward and inverse quantization for point cloud compression using look-up tables